Кластерные технологии

Готовые решения на основе кластеров

Реализации от Digital Equipment Corporation. Эта компания еще в начале 80-х первой выдвинула концепцию кластерной системы. Основной задачей VAXCluster от DEC было освобождение ресурсов центрального процессора от поддержки операций ввода/вывода. По существу VAX-кластер представляет собой слабосвязанную многомашинную систему с общей внешней памятью, обеспечивающую единый механизм управления и администрирования. Основная идея, заложенная в VAXCluster, заключалась в предоставлении каждому процессору доступа к ресурсам устройств ввода/вывода. Доступ осуществлялся посредством общей шины, реализованной по топологии «звезда» через специальное согласующее устройство. В результате такой схемы взаимодействия рабочие станции получили возможность совместного использования устройств ввода/вывода. В VAXCluster реализованы базовые, простейших методы кластеризации, и по сей день являющиеся составными элементами более сложных кластерных структур. К настоящему времени у клиентов Digital установлено более 35 тыс. кластеров.

Сегодня, в зависимости от используемой операционной системы, Digital предлагает три типа кластеров:

  • кластеры OpenVMS;
  • TruCluster Software для Digital UNIX;
  • кластеры Windows NT.

Кластеры OpenVMS. OpenVMS-кластер обеспечивает доступ посредством соединения нескольких узлов вместе. Проблема масштабирования решается путем добавления узлов в кластер, причем все это производится без переписывания используемых приложений.

Высокая интеграция платформ Alpha или VAX, программного обеспечения, дисковых систем в OpenVMS-кластере позволяет создавать системы любого размера и объема. Управление этими системами сводится к управлению одиночным виртуальным компьютером. Важно, что при добавлении нового узла в кластер рост производительности происходит по линейному закону.

Системы и дисковые массивы в OpenVMS-кластере обмениваются информацией через различные типы соединений. Сейчас существует выбор между следующими видами соединений:

  • MEMORY CHANNEL — это высокопроизводительное межузловое соединение для Alpha-систем в OpenVMS-кластерах. Архитектура MEMORY CHANNEL позволяет соединять и подбирать различные Alpha-системы, поддерживающие PCI, используя различные шины (такие как CI, SCSI, DSSI) для доступа к дисковым массивам. Это означает, что вы сможете настраивать систему на определенные задачи и модернизировать отдельные компоненты без особых проблем. Разработанные для эффективной работы с VLDB (Very Large Database — очень большие базы данных) адаптеры MEMORY CHANNEL могут объединять различные Digital AlphaServer-системы. Соединение, обладающее широкой пропускной способностью (100 Мбит/с) и малыми задержками (менее 5 микросекунд), обеспечивает высокоскоростной канал «память-память», способный объединить до восьми 8400 Alpha-серверов, которые обеспечат производительность 57,6 гигафлоп.
  • Сетевой VAX-кластер — кластерная система на базе локальных сетей Ethernet или FDDI. NI-кластеры (Network Interconnect) реализуются традиционными способами и в определенной степени ограничивают преимущества подобных систем — особенно, когда речь идет о распределенной обработке транзакций. К достоинствам этого подхода следует отнести его максимальную (в сравнении с другими) простоту и дешевизну. NI-кластер предоставляет обычный сетевой сервис и единичный путь (через сеть) доступа к разделяемым ресурсам. Впрочем, сетевой кластер из-за своей малой эффективности не прижился и применялся в основном в сочетании с другими типами кластерных архитектур.
  • DSSI-кластер. DSSI (Digital System Storage Interconnect) — это интерфейс, специально разработанный не только для доступа к накопителям, но и для взаимодействия элементов систем между собой. Данный интерфейс очень похож на предлагаемый сегодня мультихостовый SCSI-2, но обладает большей производительностью и возможностью организации взаимодействия компьютеров. DSSI-кластер реализует все возможности, декларируемые для кластерных систем. VAX-кластер может содержать до четырех компьютеров с общей шиной DSSI и разделяемыми накопителями на ней. Поддерживаются средства повышения надежности системы, разделение ресурсов, распределенная файловая система и прозрачность. С точки зрения управления и обеспечения безопасности DSSI-кластер представляется единым доменом.

Особенностями DSSI-интерфейса являются: высокий уровень защиты данных, достигаемый благодаря альтернативным системам доступа к накопителям по шине DSSI, аппаратной коррекции ошибок контроллерами накопителей и специальным программным средствам; возможность построения системы с несколькими шинами DSSI, что повышает производительность системы и ее надежность; априорное наличие на всех платформах представителей семейства VAX — от MicroVAX’ов до суперкомпьютеров VAX. Все это делает DSSI-кластер наиболее естественным способом организации кластерных VMS-систем.

  • Кластеры на базе CI-интерфейса. В основу интерфейса Computer Interconnect положено специализированное устройство — CI-интегратор. Топология CI-кластера — «звезда», допускающая подключение до 32 устройств, 16 из которых могут быть компьютерами среднего и большого класса VAX, а остальные — системами HSC (Hierarhical Storage Controller), представляющими собой специализированные компьютеры для обслуживания дисков. Интерфейс CI — это двойная последовательная шина со скоростью обмена до 70 Мбит/с, подключенная к системе ввода/вывода компьютера посредством интеллектуального контроллера, способного поддерживать работу как с двойной, так и с одинарной шиной, в зависимости от требований к надежности доступа для конкретного компьютера. Все линии связи CI-интерфейса одним концом соединены с CI-интегратором — специальным устройством, отслеживающим соединения с узлами и конфигурации кластера. В качестве узлов CI-кластера могут выступать элементы DSSI-кластера. Как правило, все компьютеры CI-кластера объединены сетью или интегрированы в NI-кластер.
  • Alpha-кластеры. Реализация кластера на нескольких уровнях в совокупности с программным обеспечением позволяет реализовать системы высокой надежности, удовлетворяющие самым изысканным требованиям.

К сожалению, для функционирования DSSI-кластера необходимо сетевое взаимодействие между системами, объединенными шиной DSSI. Как правило, NI- и DSSI-кластеры используются в одной системе, дополняя друг друга. DSSI-кластер ориентирован на крупные корпоративные применения или использование в качестве сервера, когда требуется высокая сохранность и эффективный доступ к данным.

В 1993 году появилась, а через год реализовалась устойчивая коммерческая версия ОС DEC OSF/1, основанная на технологиях Open Software Foundation. В том же году появился набор решений под общим названием AlphaFarm — кластерное решение, но уже не на базе традиционных DEC VMS-кластеров, а на основе новой программно-аппаратной платформы. В качестве узлов в кластере использовались рабочие Alpha-станции. В основу такого кластера было положено коммутационное устройство, получившее название GigaSwith, — вероятно, за свою интегральную производительность в 3,6 Гбит/с. Концептуально кластер на основе GigaSwitch поразительно похож на кластер на CI-интерфейсе. GigaSwith — 36-портовое протокольно независимое устройство коммутации пакетов, которое может поддерживать как Ethernet и FDDI, так и АТМ. Номинальная скорость потока 100 Мбит/с, однако существует возможность объединения нескольких физических портов в один логический, ведущий к суммированию полосы пропускания. При этом поддерживается одновременно до 22 каналов взаимодействия типа «точка-точка». Поддержка протоколов реализована посредством специальных карт, которые вставляются в устройство.

В дополнение к моноплатформным кластерам Digital планирует выпуск набора продуктов, поддерживающих гетерогенные кластеры. Для балансировки загрузки кластера предлагается использовать продукт третьей фирмы — Load Sharing Facility (Platform Computing Corporation), доступный, впрочем, и на платформах с другими ОС — AIX, SunOS, Solaris 2, HP-UX, Iris, Ultrix.

TruCluster для Digital UNIX. Программное обеспечение TruCluster для среды Digital UNIX сочетает в себе преимущества симметричных мультипроцессорных систем, распределенных вычислений и устойчивость к сбоям для достижения масштабируемости, надежности, управляемости и высокой производительности.

Серия продуктов TruCluster включает:

  • TruCluster Available Server — реализует минимальное время простоя для критичных приложений;
  • TruCluster Production Server — обеспечивает достижение оптимальной надежности системы и производительности приложений. Поддерживает Oracle Parallel Server и использует все преимущества Memory Channel.

TruCluster часто используется в качестве платформы для приложений, работающих с большими базами данных, предоставляя механизмы распределенного исключения доступа (distributed locking), управления обработкой отказов (Failover Manager) и удаленного доступа к хранилищам данных на уровне высокоскоростного кластерного соединения Memory Channel.

Программа AlphaServer TruCluster, включающая предупаковочную интеграцию и заводское тестирование программного обеспечения TruCluster, системы AlphaServer и Value-added Implementation Services Systems (VIS — дополнительные услуги по реализации системы), делает процесс инсталляции и настройки кластера быстрым и легким.

Программа Distributed locking — Distribute Lock Manager (DLM) обеспечивает коллективный доступ и поддерживает другие приложения. DLM, разработанный для предоставления услуг масштабируемым системам баз данных, часто используется, чтобы координировать доступ к ресурсам как, например, распределенный кэш блоков базы данных.

Управление обработкой отказов — TruCluster Available Server — сохраняет запущенные приложения и сетевые сервисы, даже если произошел сбой системы или компонента. TruCluster Available Server является мультиузловой конфигурацией со всеми узлами и всеми дисковыми массивами, подключенными к общим шинам SCSI. Программное обеспечение на каждом узле осуществляет мониторинг сети и проверку состояний систем, дисков и шин. В случае появления отказа приложение автоматически перемещается на другую систему, чтобы сохранить доступность приложений и дисков.

Дистанционный доступ к хранилищам данных — подсистема Distribute Raw Disk (DRD) обеспечивает надежный прозрачный дистанционный доступ ко всему кластерному хранилищу данных из любого кластерного узла.

Memory Channel — предоставление соединения, обладающего большой пропускной способностью, малым временем задержек и низкими потерями. Memory Channel обладает производительностью, близкой к производительности внутренней шины. Например, он обеспечивает соединение отображения памяти (memory-mapped) 100 Mбит/с другим кластерным узлам.

Для поддержки всех этих компонентов существует Connection Manager, который создает и поддерживает данные об узлах кластера. Кроме того, он устанавливает и поддерживает быстродействующее, надежное соединение между каждым кластерным узлом.

Программное обеспечение TruCluster также предоставляет кластерный монитор — графический вид кластерной конфигурации, который вы можете использовать для определения текущего состояния доступности и связности в группе.

TruCluster поддерживает целый ряд конфигураций аппаратных средств, которые являются экономически выгодными и отвечают различным требованиям производительности и доступности данных.

К преимуществам систем TruCluster относятся: высокая степень масштабируемости, использование высокопроизводительной 64-битной технологии, применение решений на основе промышленных стандартов.

Кластеры Digital для Windows NT. Технологии кластеризации уже отлично зарекомендовали себя перед администраторами UNIX и OpenVMS. Теперь, с созданием кластера для Windows NT, Digital перенесла свой опыт построения кластеров на операционную систему от Microsoft.

Digital-кластер для Windows NT — это наиболее соответствующее решение для ПК «клиент/сервер» сетей с высокой степенью доступности (availability). Оно позволяет объединять две системы Windows NT через общую SCSI-шину и Ethernet или FDDI-соединение для создания единой системы или кластера. Конечные пользователи имеют доступ ко всем ресурсам кластера (общим дискам, разделенным файлам и базам данных), используя при этом общее имя кластера. В случая нарушения работы одного узла второй сервер в кластере немедленно примет на себя выполнение всех процессов, запущенных задач и обслуживаемых пользователей.

В основе Digital-кластера для Windows NT лежит Failover Manager — диспетчер обработки отказа. Суть отработки отказа заключается в быстром «перепредоставлении» сервисов и ресурсов через запасные каналы. Диспетчер Failover Manager обнаруживает отказ и определяет, какие сервисы и клиенты необходимо автоматически переключить на второй сервер.

При построении кластера на ОС Windows NT используются только стандартные компоненты, такие как подсистемы RAID, диски SCSI-2 и адаптеры SCSI. Это позволяет выбрать компоненты, оптимальные по стоимости, и обеспечить защиту вложенных средств.

Автоматическая отработка отказа осуществляется для популярных клиентских платформ Windows NT, Windows for Workgroups и Windows 95. Другие клиенты, такие как DOS, Mac и OS/2, также могут использоваться, но с ручным переподсоединением. Для коммуникации Digital Clusters для Windows NT использует стандартные сетевые протоколы: TCP/IP, NetBEUI и IPX/SPX.

Для управления Digital Windows NT кластер использует стандартные средства управления Windows NT, такие как File Manager и команда net use. Средства администрирования кластера позволяют легко конфигурировать кластер. Доступ к информации о состоянии кластера, а также конфигурирование возможны через SNMP-браузер, с использованием стандартных SNMP-агентов и кластерного MIB, включенного в программное обеспечение кластера.

Кластер для Windows NT — это система с высоким уровнем масштабируемости. Наращивание мощности может осуществляться в различных измерениях: вычислительная мощь, производительность ввода/вывода, объем дисковой памяти и т.д. Устройства ввода/вывода и хранения данных добавляются (или убираются) постепенно, обеспечивая их оптимальное использование.

Семейство Digital Clusters для Windows NT разработано для двух наиболее популярных архитектур — Alpha и Intel. Кластер может состоять из разных моделей, но обязательно с одинаковой архитектурой (или только Alpha, или только Intel). Два сервера в кластере могут объединяться тремя способами соединений: общая SCSI-шина (или шины); все соединения, поддерживаемые Windows NT, сети, такие как Ethernet или FDDI; собственное соединение Ethernet (тонкий коаксиальный кабель или витая пара).

В качестве программного обеспечения рабочих станций, взаимодействующих с Digital Cluster для Windows NT, используются системы Windows for Workgroups, Windows NT Workstation 3.51, Windows 95 с доустановленным специальным программным обеспечением, поставляемым совместно с Digital Cluster для Windows NT.

Примером важных приложений, которые могут быть установлены на серверах Digital Clusters, являются: файловая система NTFS; MS SQL Server 6.5; Oracle Workgroup 7.1, 7.2 и 7.3 Enterprise Server; Lotus Notes 4.11; Lotus Notes Domino 4.5; Microsoft IIS; Netscape Enterprise Server. При работе на таком многомашинном комплексе эти приложения продолжают функционировать при отказе любого из узлов системы или любого дискового накопителя системы. При этом гарантируется автоматический перенос выполнения приложений на исправную часть кластера. Возможна также установка в кластере других приложений.

Реализация от IBM. Изделие, несущее в своем названии слово «кластер», впервые появилось в перечне продуктов компании IBM в 1991 году. Продукт, названный High Availability Cluster Multi-Processing (НАСМР), не был кластером в современном понимании этого слова. Он представлял собой лишь два узла RS/6000, один из которых находился в «горячем» резерве. Несколько позже узлы НАСМР «научились» функционировать независимо, заменяя друг друга в случае сбоя или отказа. Тогда же появились упоминания о возможности наращивания кластера до восьми узлов.

Впоследствии кластер НАСМР был значительно усовершенствован, пополнившись возможностями переключения ресурсов, параллельным менеджером ресурсов, распределенным менеджером блокировок и параллельным менеджером логических томов. Параллельный менеджер ресурсов обеспечивал возможности балансировки загрузки на уровне всего кластера. НАСМР стал рассматриваться как альтернатива SMP для повышения производительности системы.

Сегодня кластер IBM поддерживает как однопроцессорные, так и SMP-узлы, построенные по уникальной технологии Data Crossbar Switch. При таком построении системы общая шина, характерная для большинства SMP-архитектур, заменяется на своего рода систему переключаемых коммутационных каналов. Такой подход обеспечивает существенно большую линейность при увеличении числа процессоров, чем общая шина. По существу, число процессоров при этом ограничено лишь характеристиками поддержки SMP в ОС AIX.

Компания добилась значительной гибкости в конфигурировании кластеров. Возможно построение не просто масштабируемых систем, но и систем высокой готовности (с избыточностью коммуникационной аппаратуры и автоматической нейтрализацией сбоев). Кроме кластерных решений на основе RS/6000, фирма IBM предлагает еще одно решение, если и не вполне кластерное, то вполне ориентированное на Oracle Parallel Server (OPS). Решение это — острие стратегической линии IBM «from palmtop to terraFLOPS» — Scalable POWERparallel System SP2. В основу этого решения положено новое поколение архитектуры POWER — POWER2. Решение SP2 в номенклатуре изделий IBM заполняет ту же нишу, что и продукты таких технологически-производственных альянсов, как Cray-Sun и ConvexHP.

«Стандартная» конфигурация может содержать от двух до 128 узлов (в терминологии массово-параллельных архитектур), а на заказ можно получить и 512. Утверждается, что на SP2 с успехом выполняются приложения, предназначенные для RS/6000 под управлением ОС AIX.

Как и многопроцессорные RS/6000, SP2 базируется не на шинной архитектуре, а на коммутаторе. При этом, правда, не используются разделяемая память и накопители. Архитектурно SP2 — типичная слабосвязанная архитектура, где у каждого процессорного модуля есть собственная память до 2 Гбайт и свои дисковые накопители от 1 до 8 Гбайт.

Реализация от АТ&Т. История участия АТ&Т в акции за продвижение кластеров началась с покупки компании NCR с готовыми SMP- и MPP-решениями System 3000. При этом в рамках всего семейства сохранялась двоичная совместимость. Впоследствии компания NCR, сменив лицо, преобразовалась в подразделение Global Information Systems — GIS.

К концу 1993 года GIS выдвинула на рынок продукт под названием LifeKeeper Resilient Fault Systems, обеспечивающий автоматическое обнаружение сбоев и восстановление системы. На базе Lifekeeper была создана кластерная платформа для Oracle Parallel Server.

Платформа базировалась на новых генерациях System 3000; поддерживалось до четырех узлов. Полностью избыточное межсоединение узлов через Ethernet, Token Ring, FDDI, многохостовые SCSI-диски позволило создать платформу, устойчивую к одиночным сбоям, а LifeKeeper обеспечивал автоматическое восстановление системы.

Кластеры АТ&T строятся на базе семейства многопроцессорных SMP-моделей System 3000. Все семейство базируется на процессорах Intel и ориентировано на высококритичные применения. Поддерживаются такие приятные особенности, как избыточные блоки питания, нейтрализация сбоя адаптера локальной сети и двухпортовые диски. Привлекательна декларированная двоичная совместимость внутри семейства. Кроме систем SMP, в семействе System 3000 имеются также системы с массовым параллелизмом — 3600 и 3700, однако их использование в качестве платформы для Oracle Parallel Server пока не является предметом коммерческой активности компании. Есть данные о ряде соглашений с поставщиками баз данных по созданию параллельных платформ: вероятно, в течение этого года будут сделаны соответствующие заявления.

Реализация от Hewlett-Packard. Среди лидирующих поставщиков UNIX-систем HP объявила о поддержке Oracle Parallel Server, пожалуй, последней — в конце января 1995 года. Кластерная программа HP началась несколькими годами раньше, но первые кластерные системы на основе решений HP были ориентированы, скорее, на быстрые вычисления, нежели на распределенные базы данных. Отсюда и аппаратная ориентация такого кластера — рабочие станции APOLLO. Хотя такие кластеры и предлагали масштабируемость производительности, но средства поддержки высокой готовности были развиты не вполне и поставлялись третьими лицами.

Примерно в то же время на рынке предлагались так называемые системы повышенной надежности для бизнес-применений. Они строились на базе систем серии 800 семейства HP 9000. Кластеры HP, построенные на основе систем HP 9000 и OC HP-UX, относятся к типу архитектуры с разделяемыми дисками. Такие системы обеспечивали переназначение задания с отказавшей системы на резервную.

Эти решения не подразумевали масштабируемости производительности, но обеспечивали высокую готовность. В рамках этого подхода предлагалось решение Swithover/UX, на которое возлагалась обязанность нейтрализации сбоев. Для подключения накопителей использовались либо стандартные сетевые средства, либо FL-интерфейс (Fiber Link) — оригинальная разработка компании, чем-то похожая на DSSI, но на оптоволокне (большого распространения, впрочем, не получившая и сегодня быстро вытесняемая более современными и стандартными технологиями, например, Fibre Channel). Кроме того, среди кластерных решений HP предлагается уникальная возможность создания кластеров в рамках глобальной сети. О поставке аналога утилиты SharedPlex, ответственной за глобальные кластеры, насколько известно, не объявил более ни один из поставщиков открытых систем.

Позже компания представила набор решений высокой готовности для критичных приложений. Вместо ранее поставляемого Swithover предлагается новая утилита MC/ServiceGuard, на которую возложена забота о «здоровье» системы в целом и ее компонентов — процессоров, памяти, сетей, интерфейсов и других. Кроме того, эта система предлагает прозрачное для пользователя интегрирование любых приложений в кластерную среду без каких-либо изменений.

Для поддержки работы с Oracle Parallel Server предназначена другая утилита — MC/LockManager — менеджер блокировок, обеспечивающий связь между экземплярами Oracle, функционирующими в кластере.

Можно условно разделить варианты построения конкретных конфигураций кластера на базе систем НР 9000 на три типа по вариантам интерфейса шины данных и, как следствие этого, — расстояния между серверами кластера.

  1. Компактный кластер (шина данных SCSI). Максимальное расстояние между серверами определяется длиной интерфейса: 20-40 м.
  2. Распределенный кластер (шина данных Fiber Link). Максимальное расстояние между серверами 500 м. Недостаток — малая пропускная способность (5 Мбит/с).
  3. Распределенный кластер (шина данных Fiber Channel). Развитие интерфейса SCSI, на оптоволокне. Имеет, по сравнению с предыдущим интерфейсом, более высокую пропускную способность (до 40 Мбит/с). Максимальное расстояние между серверами такое же, как и в предыдущем случае.

ПО MC/Service Guard разработано с учетом максимальной гибкости по вариантам конфигурации кластеров. Кластер может быть сформирован из любых серверов серии HP 9000 общим числом до восьми. Серверы могут быть как с одним процессором, так и многопроцессорными, или их комбинациями в любой пропорции. Это позволяет защитить вложения в оборудование и соотнести мощность каждого сервера с решаемыми им задачами.

Процессы приложений MC/Service Guard осуществляют мониторинг аппаратной и программной частей кластера, обнаружение сбоев и перехват системных сообщений, позволяет оператору распределять нагрузку между серверами кластера. Процесс обнаружения сбоев и восстановления для специально сконфигурированных приложений происходит автоматически, без участия оператора.

Время восстановления, обеспечиваемое MC/Service Guard, для сбоев по причине сетевых отказов обычно невелико: оно исчисляется секундами.

Время восстановления, требующее переноса работающего приложения на другой сервер кластера, сильно зависит от сервисов, используемых в данный момент этим приложением. К примеру, перезапуск базы данных происходит в среднем за 45 секунд.

Дополнительное программное и аппаратное обеспечение, повышающее эксплуатационную готовность и средства управления кластером:

  • Mirror Disk/UX (зеркалирование дисковых систем);
  • HP Online JFS (журнализированная файловая система);
  • Cluster View (система мониторинга и управления кластером, часть системы управления HP OpenView);
  • дисковые системы с поддержкой RAID;
  • системы бесперебойного питания.

По утверждению представителей HP, MC/LockManager и MC/ServiceGuard будут поставляться только совместно с новой версией операционной системы HP/UX 10.0, дополненной новыми (по сравнению с предыдущими версиями) механизмами, направленными на повышение защищенности и надежности системы.

SPARC-кластеры. Компания Sun вступила на рынок кластерных систем с объявления SPARC Cluster PDB Server. Кластер ориентирован на применение в качестве узлов SMP-систем SPARCServer 1000 и SPARCCenter 2000. Масштабирование производительности достигается путем наращивания узла. Пока Sun — единственный поставщик, ориентирующийся на использование технологии Fibre Channel, обеспечивающей удаление накопителей и узлов друг от друга на расстояние до двух километров.

В настоящее время производительность каналов Fibre Channel не слишком велика: она составляет 25 Мбит/с, что значительно уступает 100-мегабитной производительности Fast Ethernet, но поставщик утверждает, что повышение производительности таких систем в дальнейшем обойдется заказчику существенно дешевле новой установки или замены Ethernet на Fibre Channel «нормальной» производительности — от 100 до 1000 Мбит/с. Для управления кластером предлагается набор процедур администрирования кластера.

Cluster Console предлагает единое окно для отображения текущего состояния всех элементов, входящих в кластер, и позволяет осуществлять всестороннее администрирование кластера. SPARC Storage Manager делает возможным проведение оперативных действий по управлению системами накопителей, повышая готовность системы, при этом абсолютно прозрачно для пользователя, оперирующего в системе.

Кластеры от Sequent. Компания Sequent заслуженно причисляется к пионерам кластерных UNIX-систем. Для повышения производительности или готовности системы можно было, используя специальную утилиту ptx/Clusters, объединить системы Symmetry в слабосвязанные кластеры. Большую роль в развитии кластеров Sequent сыграл способ организации накопителей — еще одна иллюстрация того, что в кластерных архитектурах, предназначенных для работы с базами данных, накопители играют ведущую роль. Одной из первых внедрив Fast/Wide SCSI-2, компания Sequent стала первым UNIX-поставщиком, преодолевшим барьер в 1000 tps.

С тех пор кластер Sequent «научился» работать с OPS, пополнился средствами восстановления для систем высокой готовности, стал обеспечивать поддержку до четырех узлов и поддержку систем разного поколения в рамках одного кластера.

Программное обеспечение Sequent ptx/Clusters включает отказоустойчивый распределенный менеджер блокировок уровня ядра, распределенный менеджер томов (поддерживающий разделяемый одновременный доступ к диску). Чтобы обеспечить высокую готовность и нейтрализацию сбоев на прикладном уровне, применяется продукт НА Symmetry. Для обеспечения равномерной загрузки кластера используются мониторы транзакций третьих поставщиков. С точки зрения сети кластер представляется единым узлом.

Дисковая подсистема Sequent во многом уникальна и загадочна. Из доступных источников известно лишь то, что к ней организован мультихостовый доступ через интерфейс SCSI-2. Кроме того, доступны разделяемые ленточные накопители, обеспечивающие резервное копирование данных.

Кластерные технологии Compaq. Compaq предложила свою стратегию по разработке и выпуску кластеров на базе процессоров Intel. Данная стратегия учитывает потребности клиентов Compaq в разных уровнях отказоустойчивости.

Сотрудничая с ведущими поставщиками операционных систем и приложений масштаба предприятия, такими как Microsoft, Novell, SCO, Oracle, Informix, SAP, Lotus, Sybase, и сертифицируя комплексные решения, Compaq предоставляет своим клиентам широкий спектр протестированных кластерных решений.

Compaq уже поддерживает или будет поддерживать в скором времени кластерные технологии Microsoft (Microsoft Cluster Server), Novell (SFT, Wolf Mountain и Orion) и Oracle (Oracle Parallel Server), оперативно выпуская аппаратные платформы для новых реализаций данных продуктов.

Линия кластеров Compaq содержит как простые двухузловые кластеры общего назначения, так и мощные отказоустойчивые кластеры для обработки большого объема данных, что позволяет выбрать именно ту модель кластера, которая вам больше всего подходит.

Компания Compaq как поставщик компьютерных систем масштаба предприятия уделяет большое внимание производительности и надежности своих серверов ProLiant. Так, серверы Compaq неоднократно показывали лучшую производительность в индустрии, а многие опции повышения надежности серверов, например Hot-Plug PCI, являются уникальными.

Сознавая потребность корпораций не просто в надежных серверах, но и в отказоустойчивых компьютерных системах, компания Compaq ведет активную разработку кластеров на базе серверов ProLiant, предоставляющих новый уровень отказоустойчивости и производительности для систем на базе процессоров Intel.

Compaq использует серверы повышенной надежности в качестве узлов кластера. Помимо специальных программ тестирования, гарантирующих высокое качество и надежность серверов, Compaq использует дополнительные опции повышения надежности. Используя такие возможности, вы делаете сервер нечувствительным к сбоям источников электропитания, сетевых контроллеров и активного сетевого оборудования, контроллеров дисковых массивов, дисков и системы охлаждения. А средства предсказания сбоев и гарантия на замену до фактического отказа позволяют прогнозировать сбои процессоров, дисков и памяти и заменять эти компоненты, не дожидаясь их отказа.

Главным достоинством кластеров является достижение реальной высокой готовности и масштабируемости информационных систем, позволяющих постепенно, вместе с ростом потребностей, увеличивать вычислительную мощь платформы, таким образом защищая инвестиции пользователей. В качестве узлов используются стандартные компьютеры соответствующих производителей.

Популярность систем на основе кластера будет расти, в том числе и по причине отсутствия конкуренции со стороны суперкомпьютеров и систем с массовым параллелизмом из-за их высокой стоимости и малой пригодности для обработки транзакций.

Кластерные решения могут обеспечить разный уровень надежности, в зависимости от величины системы и удаленности ее узлов друг от друга. К примеру, защитить бизнес-приложения от ошибок персонала и от различных отказов (процессоров, памяти, блоков питания, отдельных дисков или дисковых массивов, сетевых адаптеров и т.д.) могут кластеры, состоящие из нескольких серверов, которые расположены в одном здании. Если же необходимо защитить компьютерный центр организации от серьезных инцидентов, к примеру, от крупномасштабной аварии энергоснабжения, пожара, теракта, наводнения и т.д. (такая необходимость возникает в случаях, когда перерыв в работе центра даже в течение нескольких часов чреват многомиллионными убытками), — то вполне разумно подумать о системе с удаленными узлами и о создании резервного вычислительного центра. Учтите при этом, что сегодня вполне возможно добиться ситуации, когда удаленный центр не будет всего лишь дорогостоящим балластом, а, как и любой узел кластера, станет выполнять полезную работу.

Другим подтверждением роста популярности кластеров может стать развитие систем межкомпьютерного взаимодействия. При принятии решения о выборе платформы для построения кластера следует руководствоваться следующими параметрами:

  1. Количеством пользователей ресурсами кластера.
  2. Предполагаемой географией размещения узлов кластера.
  3. Типом программного обеспечения, которое планируется использовать на сервере.

При применении приложений, которым необходима высокая вычислительная мощность, или специального ПО (например, СУБД Oracle Parallel Server или Informix Parallel Server Option) предпочтительно использование кластера, построенного на RISC-архитектуре, который имеет, во-первых, большую вычислительную мощность, а во-вторых, распределенный менеджер блокировок, необходимый для работы СУБД Oracle и Informix на кластере.

Подводя итог всему сказанному, можно сделать вывод о сложности представления каких-либо количественных характеристик для эффективного выбора тех или иных серверов. Поэтому мы советуем вам принять во внимание позиционирование серверов, предлагаемое производителем конкретного кластерного решения.

В начало

В начало

Кластерная технология SCO UnixWare Nonstop Сlasters названа журналом Performance Computing «Выдающимся продуктом года»

В январе этого года компания Santa Cruz Operation (SCO, www.sco.com) анонсировала новую версию кластерной технологии UnixWare Nonstop Clasters (www.sco.com/products/clustering/nsc.html). Одновременно были объявлены результаты тестирования этой технологии на шести серверах Compaq PtoLiant 7000, которое было осуществлено редакцией журнала Performance Computing. По результатам тестов SPEC95 Benchmark, журнал Performance Computing назвал UnixWare Nonstop «Выдающимся продуктом года».

Тестируемая система представляла собой шесть серверов Compaq PtoLiant 7000, каждый из которых был оснащен четырьмя процессорами 400 МГц Pentium II, 1 Гбайт ОЗУ и ПО UnixWare Nonstop Clasters 2.1.

UnixWare Nonstop Clasters 2.1 представляет собой первое и пока единственное кластерное решение, поддерживающее на корпоративных серверах технологию SSI (Single System Image), предоставляющую сетевым администратором возможность конфигурировать и поддерживать работоспособность кластера так, как если бы это был один компьютер. Каждый узел кластера может функционировать независимо от других. Встроенный механизм балансировки нагрузки позволяет динамически перераспределять вычислительную нагрузку между серверами кластера в случае выхода из строя одного или нескольких узлов.

Эта кластерная конфигурация может поддерживать как приложения, написанные для не-кластерной среды, так и создание мощных приложений, специально оптимизированных под условия кластера UnixWare. Такими приложениями могут быть, в частности, параллельные базы данных, Web-серверы и многонитевые (multitiered) приложения, подобные онлайновой обработке транзакций (OLTP 00 OnLine Transaction Process) или планированию корпоративных ресурсов (ERP — Enterprise Resource Planning).

По результатам теста SPECcpu_int95 benchmark данная кластерная технология превзошла по производительности аналогичную 24-процессорную конфигурацию фирмы Sun Microsystems.

Компания Compaq (www.compaq.com) использует кластерную технологию UnixWare Nonstop Clasters для функционирования своей серверной платформы Integrity.XC уже с января 1998 года. Продажами соответствующих продуктов непосредственно телекоммуникационным заказчикам занимается Tandem, подразделение компании Compaq.

В начало

В начало

Реализация законченного кластерного решения — прислушайтесь к советам специалистов

На сегодняшний день спектр предлагаемых кластерных решений весьма обширен (выше были приведены лишь некоторые достаточно стандартные примеры). Неискушенному пользователю довольно сложно разобраться в том, какие технологии и оборудование необходимы той или иной организации для достижения нужного ей уровня надежности, как защитить свои инвестиции и приобрести перспективное решение, как обеспечить совместимость с существующими приложениями и аппаратным обеспечением. Такие проблемы возникают не только у системного администратора или инженера, ломающего голову, к примеру, над выбором типа системы хранения данных. Зачастую аналогичный выбор затруднителен и для фирмы-интегратора, в рамках проекта комплексной автоматизации предприятия старающейся сконструировать и создать отказоустойчивую систему, которая обеспечит необходимый заказчику уровень сохранности данных и минимальное время простоя. Известны случаи, когда исполнители таких проектов обращались в фирмы, занимающиеся поставками и внедрением отказоустойчивых систем в течение многих лет, с просьбой подобрать для своих клиентов конфигурацию кластерной системы, порекомендовать тип оборудования и ПО, технологию резервирования данных и т.п.

Одну из таких фирм возросшее количество запросов подтолкнуло к открытию специализированного центра, который целенаправленно занимался бы консультированием заказчиков в области кластерных решений и систем повышенной надежности. Этот центр был создан в прошлом году московской компанией «Классика», давним партнером Digital Equipment (ныне Compaq Computer). Долгое сотрудничество с DEC позволило фирме накопить значительный опыт в реализации сложных решений на базе кластерных технологий и технологий хранения данных. Приобретенный опыт и растущие потребности клиентов, нуждающихся в профессиональном консалтинге в этой области, заставили руководителей «Классики» принять решение о выделении в составе фирмы отдельного подразделения. Оно получило название Competence Centre («Центр Компетентности») — по аналогии со Storage Competence Centre EMEA, европейским подразделением Compaq Computer (которое консультирует партнеров Compaq в различных областях, связанных с реализацией сложных интеграционных проектов).

В московский Competence Centre обращаются как клиенты «Классики», так и сторонние организации, в том числе фирмы, занимающиеся системной интеграцией. Основная функция Центра — предоставление комплекса консультаций по решению задачи сохранности данных и устойчивости системы, а также, при необходимости, помощь в реализации проектов. Центр производит оценку имеющихся у заказчика программно-аппаратных ресурсов, а также анализ бизнес-деятельности предприятия: к примеру, сколько у компании филиалов и насколько зависит от них успешное функционирование головного офиса, какова структура существующей или проектируемой информационной системы, какие ее узлы требуют повышенной надежности и т.п. В случаях когда возникает необходимость смоделировать очень сложное решение, «классический» Competence Centre взаимодействует с EMEA Storage Competence Centre, а также с российским представительством Compaq, в котором функционирует отдел по работе с корпоративными клиентами.

Как видим, сегодня выбор предприятием-клиентом кластерного решения, которое оптимально решало бы поставленные задачи, облегчается взаимодействием со специалистами. В этом взаимодействии, по всей видимости, особая ценность — возможность получить консультацию или компетентный совет, которые помогут сориентироваться в море информации о существующих на рынке решениях и предохранят от потери инвестиций в неперспективные или устаревающие технологии. Однако у пользователя может возникнуть вопрос: сколько это стоит и разумно ли тратить на консультации дополнительные средства? Практика той же «Классики» показывает, что российский клиент, как правило, редко готов платить за подобного рода услуги. Тем не менее, по наблюдениям специалистов, каждый второй заказчик, приобретающий хотя бы два сервера, сегодня задается вопросом, как ему обеспечить безотказную работу своей системы. Сотрудники Competence Centre утверждают, что намерены оказывать помощь любому из таких клиентов и при необходимости будут многих консультировать бесплатно, если станет понятно, что заказчик готов работать с компанией и дальше. Такое намерение, судя по всему, позволит воспользоваться услугами Центра и компетентно решить задачу сохранности данных и устойчивости системы (в рамках своего бюджета) гораздо большему числу заказчиков.

Предыдущая страница

КомпьютерПресс 3'1999


Наш канал на Youtube

1999 1 2 3 4 5 6 7 8 9 10 11 12
2000 1 2 3 4 5 6 7 8 9 10 11 12
2001 1 2 3 4 5 6 7 8 9 10 11 12
2002 1 2 3 4 5 6 7 8 9 10 11 12
2003 1 2 3 4 5 6 7 8 9 10 11 12
2004 1 2 3 4 5 6 7 8 9 10 11 12
2005 1 2 3 4 5 6 7 8 9 10 11 12
2006 1 2 3 4 5 6 7 8 9 10 11 12
2007 1 2 3 4 5 6 7 8 9 10 11 12
2008 1 2 3 4 5 6 7 8 9 10 11 12
2009 1 2 3 4 5 6 7 8 9 10 11 12
2010 1 2 3 4 5 6 7 8 9 10 11 12
2011 1 2 3 4 5 6 7 8 9 10 11 12
2012 1 2 3 4 5 6 7 8 9 10 11 12
2013 1 2 3 4 5 6 7 8 9 10 11 12
Популярные статьи
КомпьютерПресс использует