В тестовой лаборатории «КомпьютерПресс» проведено тестирование девяти моделей сетевых карт для серверов: 3Com 3C980C-TXM, D-Link DFE 570TX, Intel Pro 100+, встроенная на материнской плате сервера, Intel Pro 100+ (для рабочих станций), Intel PRO/100 + Server Adapter (PILA8470B), Intel PRO/100 + Dual Port Server Adapter (для серверов), SMC EtherPower II 10/100 Ethernet Adapter, SMC EtherPower 10/100 Ethernet Adapter и безымянная карта на основе чипа Realtek 8139.

Тестирование сетевых карт для серверов

Сергей Пахомов, Сергей Самохин

Введение

Критерии отбора

Методика тестирования

Выбор редакции

   3Com 10/100 Fast EtherLink Server NIC

   D-Link DFE-570TX

   Intel Pro 100

      Встроенный сетевой адаптер сервера HP LH3000

      Intel PRO/100+ Server Adaper

      Intel PRO/100+ Dual Port Server Adapter

      Intel PRO 100 PCI

   Безымянный адаптер на базе Realtek 8139

   SMC TigerArray2 SMC9334BDT/SC

   SMC TigerArray SMC9432TX/SC

Семейство сетевых адаптеров DuraLan64

Сетевые адаптеры для серверов от Compaq

Matrox NS-FNIC/4

Введение

В течение долгого времени в серверы устанавливались такие же сетевые карты, что и в рабочие станции. Это было обусловлено рядом причин. Во-первых, тем, что при выборе карты руководствовались тем же критерием стоимость/производительность. Во-вторых, специальных сетевых карт просто не существовало. Однако рост сетевого трафика заставил пересмотреть традиционный подход к сетевым картам, устанавливаемым в серверы.

Глядя на светодиод, индицирующий активность сетевой карты, установленной на рабочей станции, можно заметить периодические короткие вспышки, иногда сменяемые более длительными при файловых операциях или печати. Этот же светодиод карты, установленной на сервере со средней (или выше) загрузкой, имеет почти непрерывное свечение. Действительно, каждая из станций обменивается с сервером служебной и файловой информацией, но он-то обменивается этой информацией со всеми! Исходя из общих соображений, можно предположить, что сетевая карта на сервере должна соотноситься с обычной так же, как RAID-массив с обычным жестким диском, то есть быть более производительной и более надежной.

Основными свойствами, присущими серверным сетевым картам, должны быть масштабируемость, управляемость и надежность.

В данном случае под масштабируемостью понимается возможность увеличения числа пользователей при сохранении достаточной скорости обмена для каждого из них. Масштабируемость может быть достигнута установкой большего количества сетевых карт, однако их число ограничено количеством свободных слотов PCI. Другой способ — применение многопортовых карт, имеющих два или четыре сетевых разъема на одной плате. Фактически на одной плате расположено несколько сетевых адаптеров. Поскольку на интерфейсе PCI одновременно может быть активным только одно периферийное устройство, то наличие одного физического устройства на четыре адаптера не снижает пропускной способности.

Управляемость необходима для общего контроля за состоянием системы, направленного на предотвращение сбоев и катастроф. Сетевая карта должна входить в систему управления сервером и регистрировать все сбои и подозрительные ситуации в базе данных статистики системы управления.

Надежность серверной сетевой карты должна быть выше, чем у клиентских карт. Это объясняется тем, что отказ сетевой карты одного клиента приводит к тому, что один пользователь не может работать с документами в течение одного или нескольких часов. Отказ же сетевого адаптера на сервере может привести к полному отказу всей системы, иными словами, эффект имеет не аддитивный, а синергический (то есть такой, когда результат превышает сумму причин, его породивших) характер. Частичным решением проблемы является применение сетевых адаптеров с возможностью горячей замены, более адекватным — горячее резервирование, подобное тому, что реализовано в сетях FDDI (в нормальном режиме работают два кольца, при аварии они объединяются в одно, работающее на половинной скорости).

В последнее время появилось несколько типов карт, удовлетворяющих перечисленным требованиям и имеющих весьма впечатляющие характеристики.

Каким образом можно улучшить характеристики сетевых карт? По пропускной способности узкое место находится не на карте или сервере, а снаружи, в сети. Возьмем сеть, реализованную по стандарту 100Base-T. Цифра 100 означает величину тактовой частоты, с которой передаются данные, а также то, что при наличии в сети только двух станций они смогут обмениваться данными со скоростью ненамного меньше чем 100 Мбит/с. Из-за временных издержек, присущих алгоритму доступа к среде передачи, принятому в сетях Ethernet, — CSMA/CD (Carrier Sense Multiple Access / Collision Detection — множественный доступ с прослушиванием несущей/обнаружением столкновений), полезная пропускная способность при наличии концентратора (а не коммутатора) редко превышает 50 Мбит/с, причем с увеличением нагрузки пропускная способность снижается. Реальный максимум, при котором падение пропускной способности не очень заметно, составляет 15-20 Мбит/с. Это составляет соответственно 2-2,5 Мбайт/с, что легко достигается даже при 32-битной шине PCI. По той же причине указываемые ниже величины пропускной способности носят чисто теоретический характер и приводятся в порядке ссылок на соответствующие стандарты. Применение коммутаторов позволяет значительно повысить скорость обмена.

Первый способ улучшения характеристик сетевых карт — снижение нагрузки на центральный процессор. Это достигается путем разработки специализированных БИС, которые берут на себя значительную часть работы на низком уровне (обнаружение столкновений, сборка/разборка пакетов, проверка контрольных сумм, повторная передача испорченных пакетов и т.д.). Второй способ (не исключающий первый, а применяемый наряду с ним) — установка на карте собственного процессора. Подобные карты показывают особенно хорошие результаты, поскольку обеспечивают эффективную работу даже с большой нагрузкой в сети, не очень существенно повышая нагрузку на центральный процессор. Наличие собственного процессора позволяет устанавливать на них до 1 Мбайт буферной памяти, что переводит их из разряда просто сетевых карт в разряд коммуникационных сетевых процессоров.

Наконец, можно попробовать расшить узкое место и увеличить пропускную способность самой сети. В настоящее время при увеличении сетевого трафика выше допустимого применяется разбиение ее на сегменты и подключение этих сегментов к разным сетевым адаптерам. Однако такое решение не отличается легкостью масштабируемости и приводит к снижению надежности (чем больше сетевых адаптеров и концентраторов, тем больше вероятность отказа одного из них). Теоретически гораздо более привлекательна «плоская» модель сети, когда центральный концентратор или коммутатор подсоединен к серверу при помощи единственного высокоскоростного канала.

Это достигается при помощи технологии, называемой Port Aggregation (объединение портов). Объединение портов в данном случае означает объединение нескольких сегментов сети в один, обладающий большей производительностью. Эти несколько портов образуют один виртуальный порт, теоретически обладающий производительностью, равной производительности исходных портов, умноженной на их количество. Таким образом, производительность, скажем, объединенных четырех портов равна 4х100 = 400 Мбит/с. Но этим выстрелом убивается не один заяц. Решение обладает масштабируемостью, так как порты можно добавлять, тем самым увеличивая по мере необходимости пропускную способность. Решение также обладает повышенной надежностью, так как при выходе из строя одной из карт ее нагрузка просто распределится между оставшимися.

Объединение портов бывает двух видов: симметричное и асимметричное. При асимметричном объединении улучшается пропускная способность лишь в одну сторону, например на выход, входящий же трафик проходит только через один порт (или наоборот). Конкретное решение о направлении, в котором будут объединены порты, принимается драйвером на основе анализа трафика в обоих направлениях. Объединяются каналы того направления, где нагрузка больше. Это решение известно также под названием Adaptive Load Balancing.

Симметричное объединение подразумевает суммирование пропускной способности как для исходящего, так и для входящего трафика, независимо от нагрузки в обоих направлениях. Cisco Fast EtherChannel (FEC) — одна из технологий, реализующих симметричное объединение портов.

Управляемость обеспечивается за счет того, что в современных сетевых адаптерах, специально предназначенных для установки в серверы, предусмотрены все необходимые средства взаимодействия с системой управления.

В технологии объединения портов помимо сервера и сетевых карт участвует еще один игрок — коммутатор (Switch). Объединенные в группу сетевые порты должны подключаться к одному и тому же коммутатору. Концентраторы не поддерживают технологию объединения портов, но способны обеспечить резервирование. Большинство современных коммутаторов поддерживают данный режим, однако перед приобретением конкретного коммутатора следует удостовериться, так ли это.

Для объединения портов требуется специальный драйвер, поставляемый обычно с сетевым адаптером. Это означает, что объединению подлежат только карты, изготовленные одним и тем же производителем, одного и того же типа (или на одинаковом чипсете). Наиболее подходящими являются двух- и четырехпортовые адаптеры, например Intel Pro 100+ Dual Port Server Adapter или четырехпортовая карта ANA-62044 производства Adaptec.

Однако с появлением пакета NIC Express от фирмы IP Metrics Software, Inc. (www.ipmetrics.com) ситуация изменилась. Этот пакет позволяет объединять практически любые карты. Доступна бесплатная оценочная копия сроком на 30 дней. Если понравится, ее можно зарегистрировать всего за 395 долл. Впрочем, за те же деньги можно купить четыре очень приличных серверных адаптера вместе с ПО для их объединения.

В начало

В начало

Критерии отбора

Для тестирования выбирались имеющиеся на российском рынке сетевые карты, позиционируемые изготовителями как серверные. Данные некоторых карт, недоступных в Москве, представлены во врезках. Для сравнения в состав тестируемых были включены два адаптера, не предназначенных для установки в серверы: первый — неизвестного изготовителя на основе БИС Realtek 8139, второй — Intel Pro 100. Первый был взят для того, чтобы проверить, не морочат ли нам голову, предлагая серверные адаптеры просто потому, что они «серверные», а второй — чтобы проверить, насколько различаются «серверные» и «несерверные» карты, реализованные на одной и той же БИС контроллера.

В начало

В начало

Методика тестирования

Измерения проводились на стенде, состоящем из сервера HP LH3000 (2XPIII 600 МГц, RAM 512 Мбайт, RAID 0 из двух дисков), коммутатора Lucent Cajun P533T на 24 порта и 23 рабочих станций. На сервере была установлена ОС Windows 2000 SP1, на рабочих станциях — Windows 2000 Pro. Все адаптеры, установленные на рабочих станциях и сервере, работали в режиме 100 Мбит/с Full Duplex.

Целью измерений было получить сравнительные характеристики работы тестируемых сетевых адаптеров в комплексе с операционной системой и сетевым окружением. Измерение «чистой» производительности сетевого адаптера, скорее всего, не имеет особого смысла, так как он всегда работает совместно со своим драйвером и сетевой ОС, при этом загрузка процессора определяется как качеством написания драйвера, так и сопутствующими сетевому трафику файловыми операциями.

Обычно для измерения производительности сетевых карт используются утилиты IOmeter или NetBench. Обе они предназначены для относительных (а не абсолютных) измерений, то есть для сравнения нескольких устройств одинакового назначения на предмет выявления лучшего (и худшего) из них. Каждая из утилит имеет свои положительные и отрицательные стороны.

IOmeter имитирует как входящий, так и исходящий трафик, позволяя регулировать их соотношение, что больше соответствует реальной работе. Однако при этом на сервере запускается процесс под названием IOmeter, на который падает большая часть загрузки процессора. По-видимому, значительная часть операций происходит при этом «в обход» файловой системы ОС, что не позволяет считать измерения характеристик комплекса адаптер + драйвер + ОС вполне корректными.

Работа утилиты NetBench основана на чтении файлов, расположенных в кэш-памяти файловой системы, исключая тем самым из процесса измерений дисковую подсистему, которая могла бы замедлить файловые операции; при этом размер запроса варьируется от 512 байт до 64 Кбайт. Хотя со стороны сервера в этом случае генерируется только трафик на чтение, в работе участвуют все подсистемы ОС, и только они. Именно это обстоятельство и оказалось решающим при выборе измерительного инструмента для получения характеристик комплекса адаптер + драйвер + ОС.

Основным критерием качества сетевого адаптера, наряду с абсолютной величиной пропускной способности, является отношение пропускной способности к создаваемой при этом загрузке процессора. Следует учитывать, что загрузка процессора порождается не только (и не столько) операциями работы с сетью, но и сопутствующими файловыми и другими операциями, а также различными фоновыми задачами. К сожалению, драйвер сетевого адаптера не порождает отдельного процесса, и поэтому прямое измерение загрузки процессора от исполнения кода этого драйвера не представляется возможным. Некоторого уточнения можно добиться путем измерения времени DPC (Deferred Procedure Calls — отложенные вызовы процедур), которое напрямую связано с системой обработки прерываний. Однако большая часть периферии работает по прерываниям, так что и этот параметр не дает однозначной оценки. В связи с этим было принято решение принять традиционное отношение пропускной способности к создаваемой при этом загрузке процессора за основной критерий качества сетевого адаптера. При прочих равных разница в загрузке процессора порождается только сетевым адаптером и его драйвером, а значит, она может служить объективным критерием оценки качества.

Собственно измерения проводились следующим образом: на 22 рабочих станциях был установлен пакет NetBench, еще одна служила контроллером, осуществляющим запуск клиентов и отображение результатов измерения. При увеличении количества сетевых соединений с сервером число присоединенных рабочих станций соответственно уменьшалось, но никогда не было ниже 19. Загрузка процессора измерялась при помощи стандартной утилиты Performance Monitor, запущенной на сервере. Измерения проводились при размере запроса на чтение 512 байт, 1, 2, 4, 8, 16, 32 и 64 Кбайт. Полученные результаты отношения производительность/загрузка процессора усреднялись и служили для оценки. Встроенный адаптер отключался через BIOS, если он не участвовал в процедуре измерения.

В заключение несколько слов о самой величине загрузки процессора (Processor Utilization). Вопреки известному мнению, что чем эта величина ниже, тем лучше, на самом деле она характеризует отдачу тех денег, которые были вложены в приобретение процессора/процессоров. Например, при загрузке процессора в 30% можно с некоторым приближением считать, что 70% денег были выброшены на ветер! На самом деле не следует, конечно, путем снижения мощности добиваться величины 100%, но 70…80% — величина не только допустимая, но и желательная.

С результатами тестирования вы можете ознакомиться здесь.

В начало

В начало

Выбор редакции

Так как сетевой адаптер для сервера приобретается не каждый день, было решено исключить из рассмотрения денежный аспект, а оценку производить только по основному критерию качества — отношению производительность/загрузка процессора. При этом были выбраны две номинации: лучший одиночный сетевой адаптер и лучший коллективный. В первой наилучшим оказался с небольшим отрывом 3Com 3C980C-TXM, во второй (также с небольшим отрывом) Intel PRO/100+ Dual Port Server Adapter.

В начало

В начало

3Com 10/100 Fast EtherLink Server NIC

Сетевое оборудование производства 3Com пользуется заслуженной популярностью. Сетевой адаптер 3C980C-TXM — пример оптимизированного для высокоскоростного обмена устройства. Интерфейс с сетью — 10Base-T (10 Мбит/с), 100Base-T (100 Мбит/с) и 100Base-TX (200 Мбит/с). Примененная в нем технология Parallel Tasking (параллельные задачи) позволяет снизить нагрузку на шину PCI, так как весь пакет размером 1514 байт передается за один цикл типа Bus Master. При этом используется расширенный набор инструкций PCI, таких как Memory Read Line (MRL), Memory Read Multiple (MRM), особенно Memory Write Invalidate, которая позволяет улучшить управление кэш-памятью.

Под управлением ПО 3Com DynamicAccess несколько адаптеров (до восьми) могут быть объединены в группу по технологии Load Balancing, при этом в случае выхода из строя одного из адаптеров обеспечивается распределение нагрузки между оставшимися. Для вычисления нужного адаптера в группе при установлении «исходящего» соединения применяется алгоритм хэширования, использующий в качестве ключа IP-адрес клиента. Это позволяет эффективно использовать технологию при работе через маршрутизатор или коммутатор уровня 3.

При установлении «входящего» соединения для выбора адаптера используется простой циклический алгоритм выбора MAC-адреса, соответствующего IP-адресу сервера. Поскольку маршрутизаторы и коммутаторы уровня 3 принимают непосредственное участие в установлении соединения, то «входящие» соединения с другими подсетями осуществляются только через ведущий адаптер группы.

Так как весь интеллект технологии Load Balancing сосредоточен в сетевом адаптере и драйвере, то она может применяться с любым коммутатором независимо от примененных в нем фирменных технологий. Это позволяет сэкономить средства путем использования уже имеющегося оборудования, в том числе и недорогого.

Технология Resilient Server Links (RSL — упругое соединение с сервером) позволяет сохранить связь с сервером даже при отказе некоторых элементов сетевой инфраструктуры. Драйвер первичного адаптера отслеживает состояние соединения. Если оно обрывается в результате неисправности коммутатора, кабеля или самого адаптера, то все логические соединения передаются на резервный, а его MAC-адрес передается широковещательно для того, чтобы коммутирующая среда получила данные о новом пути для соединения. Все сеансы при этом остаются активными, а пользователи продолжают работу, даже не заметив отказа.

Драйверы построены по архитектуре 3Com Self-Healing (буквально — самолечение) таким образом, что при наличии ошибок вроде зависшего прерывания или потери несущей предпринимаются необходимые меры, вплоть до перезапуска драйвера и карты. Кроме того, при возникновении большого количества ошибок, например коллизий, коротких пакетов, ошибок CRC и т.п., драйвер может принять решение перейти на запасной адаптер (если таковой имеется). Количество ошибок (порог), при котором осуществляется такой переход, может быть установлено и изменено администратором.

Основным элементом адаптера является большая интегральная схема BCM5904 производства фирмы Broadcom. Этот однокристальный контроллер производится по заказу 3Com и в широкую продажу не поступает.

Установка адаптера 3C980C-TXM прошла без проблем, был использован драйвер версии 3.21.0.0 от 3Com с прилагаемого CD-ROM. Самостоятельно ОС Windows 2000 драйвер установить не смогла.

После тестирования одиночного адаптера был установлен второй и произведено объединение их в группу при помощи утилиты 3Com DynamicAccess Software for Server Configuration v1.8. При установке двух адаптеров производительность сетевой подсистемы возросла в два раза, а загрузка процессора — почти в три. Установка и объединение четырех адаптеров привели к утроению измеренной производительности сетевой подсистемы. При этом наблюдалась загрузка процессора более 93%, что и ограничило на самом деле сетевой трафик.

Редакция благодарит московское представительство 3Com (www.3com.ru) за предоставленные для тестирования сетевые адаптеры 3C980C-TXM.

В начало

В начало

D-Link DFE-570TX

Четырехпортовый серверный адаптер D-Link DFE-570TX построен на основе четырех БИС Intel 21143-TD+ и одной 21152-AB. Он предназначен для установки в серверы, работающие под управлением ОС Windows NT/2000. При наличии соответствующего ПО обеспечивается симметричное объединение портов и защита от сбоев и отказов.

ОС Windows 2000 определила адаптер как четыре сетевые карты на основе контроллера i21143. Для объединения портов служит специальная утилита, имеющаяся на сайте D-Link (www.dlink.com). По дизайну и интерфейсу эта утилита очень похожа на уже упоминавшуюся NIC Express от фирмы IP Metrics Software, Inc.

После установки утилиты управления появляются возможности объединения портов в одну или несколько групп, управления свойствами протокола TCP/IP группы, а также просмотра статистики и управления отказоустойчивостью.

Утилита статистики позволяет просматривать состояние каждого из портов и их активность в общем и в деталях. Также предусмотрена возможность ручного перезапуска отказавшего порта (например, после замены случайно поврежденного кабеля или устранения другой неисправности), хотя отслеживание состояния портов и их перезапуск при восстановлении работоспособности производятся автоматически. Кроме того, можно изменить количество перезапусков, после которого порт считается неисправным (по умолчанию оно равно трем за один час).

Наличие такого обилия возможностей контроля и управления, несомненно, делает этот адаптер и поставляемое с ним программное обеспечение весьма привлекательным.

Редакция благодарит московское представительство D-Link (www.dlink.ru) за предоставленный для тестирования сетевой адаптер D-Link DFE-570TX.

В начало

В начало

Intel Pro 100

Марка Intel Pro известна довольно давно и заслуженно пользуется как любовью системных интеграторов, так и успехом у компьютерной прессы, свидетельством чему служат многочисленные награды таких изданий, как PC Magazine, Network Computing и др. Все адаптеры в линейке имеют существенные различия по архитектуре и примененной элементной базе. Минимально различие между двумя адаптерами — PRO/100+ и PRO/100. Новая БИС, 82559, примененная в этих адаптерах, аппаратно реализует функцию подсчета контрольной суммы пакетов TCP, тем самым снижая нагрузку на центральный процессор.

Для объединения портов используется несколько технологий. Первая, Adaptive Load Balancing, является вариантом асимметричного объединения портов (один, ведущий, адаптер работает и на прием, и на передачу, остальные — в ту сторону, куда больше трафик) и не требует никакой поддержки со стороны коммутатора. Эта технология позволяет комбинировать до четырех портов в один высокоскоростной канал и получить пропускную способность до 400 Мбит/с. Вторая технология, Intel Link Aggregation, — фирменная, соответствующая симметричному объединению (трафик идет в оба направления через все адаптеры) и позволяющая при помощи коммутаторов Intel Express Switch серии 500 получить пропускную способность до 800 Мбит/с. Третья технология, Fast EtherChannel разработки Cisco, также является симметричной и требует поддержки со стороны коммутатора.

Наконец, заявлено, что серверные сетевые адаптеры, построенные на основе контроллеров 82558/82559, поддерживают новый стандарт IEEE 802.3 ad, то есть могут объединяться с любыми адаптерами, поддерживающими этот новый, теперь узаконенный IEEE стандарт.

Все технологии обеспечивают поддержку функции Adapter Fault Tolerance (допустимость сбоя адаптера).

В случае обнаружения неисправности одного адаптера драйвер немедленно переключает трафик на остальные. Интересно, что эта функция может работать и с разнотипными адаптерами. Характерной особенностью является также то, что ни один адаптер не простаивает в качестве запасного в ожидании сбоя.

Кроме того, все адаптеры поддерживают технологию Adaptive Technology (адаптивная технология), которая, собственно, состоит из двух частей: загрузки микрокода в БИС контроллера и управления межпакетным интервалом.

Загрузка микрокода производится драйвером и необходима для подстройки контроллера на уровне кремния под конкретную ОС. Для ОС класса Win NT заявлен выигрыш производительности, достигнутый таким образом, от 5 до 20%. Вторая часть технологии относится к управлению размером межпакетного интервала на основе анализа трафика в сети. Увеличивая или уменьшая этот, вообще говоря, стандартизованный интервал, адаптер добивается снижения числа коллизий или облегчения доступа к среде передачи.

В начало

В начало

Встроенный сетевой адаптер сервера HP LH3000

Разглядеть БИС контроллера, сокрытую в глубинах сервера, невозможно, не разобрав его наполовину, однако представитель HP сообщил, что в основе сетевого адаптера лежит i82559. Это подтверждается и тем, что Windows 2000 устанавливает драйвер от Hewlett- Packard, однако драйвер от Intel также прекрасно работает. Встроенный адаптер способен объединяться в группу с другими адаптерами на базе чипа i82559, установленными в разъемы шины PCI, то есть он может служить основой для дальнейшего расширения сетевой подсистемы.

В начало

В начало

Intel PRO/100+ Server Adaper

В основе адаптера лежит БИС контроллера i82559. Был установлен драйвер версии 5.0.67.0, провайдер Intel Сorporation. При помощи утилиты Intel PROSet II были получены группы из двух и четырех адаптеров, причем для двух адаптеров производительность практически удваивалась, а загрузка процессора возрастала в 2,5 раза. При установке группы из четырех адаптеров производительность возросла более чем в 3 раза (но не в 4), что обусловлено достижением загрузки процессора до 95%.

В начало

В начало

Intel PRO/100+ Dual Port Server Adapter

Двухпортовый серверный адаптер построен на базе контроллера PCI Intel 21152_AB и двух контроллеров Ethernet Intel 82558+. Был установлен драйвер версии 5.0.67.0 (провайдер Intel Сorporation). Объединение в группы из двух и четырех портов проводилось при помощи утилиты Intel PROSet II. Этот адаптер показал самые высокие результаты при объединении портов.

В начало

В начало

Intel PRO 100 PCI

Этот адаптер построен на основе того же чипа i82559 и отличается наличием функции Wake up On LAN. Тестированию он подвергался главным образом для того, чтобы понять, чем отличается «серверный» адаптер от «несерверного», при том что в обоих используется одна и та же БИС контроллера. Был установлен драйвер версии 4.02.38.0000 (провайдер Intel Сorporation). Функции объединения в драйвере отсутствуют, но с помощью утилиты от Ipmetrics (NIC Express v2.12, оценочная 30-дневная версия) удалось объединить два адаптера. При этом нагрузка на оба адаптера была одинаковой как на прием, так и на передачу, а достигнутый результат — весьма высоким для сетевых карт, объединенных в группу.

Редакция благодарит компанию Аэртон (www.airton.com) за предоставленные для тестирования сетевые адаптеры производства Intel.

В начало

В начало

Безымянный адаптер на базе Realtek 8139

На основе чипа Realtek 8139 выпускается половина дешевых сетевых адаптеров для рабочих станций. Из-за исключительной дешевизны они пользуются заслуженной популярностью. Целью включения подобной карты в состав тестируемых было исключительно желание понять и почувствовать разницу.

Установка адаптера прошла на ура, операционная система подхватила его влет. Сразу же установилась максимально возможная скорость соединения — 100 Мбит/с с полным дуплексом. Однако по результатам измерений видно, что дешевизна далась разработчикам непросто. Только при одном значении размера запроса удалось преодолеть барьер 70 Мбит/с. Дальше начались форменные чудеса: NIC Express, прекрасно работавшая со всеми типами адаптеров, а по слухам, способная объединять разнотипные карты, отказалась работать с двумя одинаковыми картами на основе контроллера Realtek 8139. Она их видит, объединяет в группу, но этим дело и кончается. Реально весь трафик идет через одну карту.

Это еще раз подтверждает, что адаптеры для серверов и рабочих станций окончательно разошлись по разным классам оборудования. ОС, установленная на пользовательском компьютере, никогда не сможет создать трафик более 30-40 Мбит/с, что и поддерживает с запасом рассматриваемая карта. А вот на сервере сетевой адаптер должен развивать скорость, равную или по крайней мере близкую к теоретическому пределу — 100 Мбит/с на прием и передачу.

В начало

В начало

SMC TigerArray2 SMC9334BDT/SC

Построенный на основе двух БИС Digital 21140-AF+ и одного контроллера PCI Intel 21152-AB, этот адаптер был распознан операционной системой как две сетевые карты с контроллером 21140, при этом соответствующие драйверы были установлены автоматически. Со средством объединения портов Tiger Array дело обстояло несколько хуже: версии, работоспособной под ОС Windows 2000, не оказалось, и из Мюнхена, где расположен европейский офис SMC, нам по электронной почте пришел совет воспользоваться все тем же пакетом NIC Express от Ipmetrics, что и было проделано для проведения измерений.

В начало

В начало

SMC TigerArray SMC9432TX/SC

Этот однопортовый адаптер построен с применением однокристального контроллера с маркировкой SMC 83C171A2QP. В нем применены технологии SMC SimulTasking и Programmable InterPacket Gap.

 Первая ускоряет работу карты с интерфейсом PCI за счет обращения к массиву данных одной командой и использования параллельной загрузки буфера и обмена с сетью. Вторая позволяет облегчить доступ к сети или снизить количество коллизий путем подстройки межпакетного интервала.

Драйвер для установки был взят с сайта SMC (www.smc.com), версия драйвера 3.22, провайдер — SMC Networks. После окончания установки было обнаружено, что соединение установилось на скорости 10 Мбит/с. Нужной скорости удалось добиться путем снятия режима Autonegotiation и принудительной установки 100 Mbit Full Duplex. Объединение портов производилось при помощи все той же утилиты NIC Express от Ipmetrics, причем следует отметить тот факт, что на сайте SMC доступна только 30-дневная версия.

Редакция благодарит московское представительство SMC (www.smc.ru) за предоставленные для тестирования сетевые адаптеры SMC9334BDT/SC и SMC9432TX/SC.

КомпьютерПресс 4'2001