Сравнительное тестирование:

Intel PRO 1000MT Server Adapter против Intel 82540EM Based Server Adapter

Сергей Пахомов

Участники тестирования

   Intel 82540EM Based Server Adapter

   Intel PRO 1000MT Server Adapter

Методика тестирования

Результаты тестирования

   Intel PRO 1000MT Server Adapter

   Intel 82540EM Based Server Adapter

   Сравнение адаптеров

 

После выхода нового серверного чипсета Intel 7501 и соответствующего обновления двухпроцессорных серверных платформ практически на всех серверных системных платах стали интегрироваться гигабитные сетевые адаптеры Ethernet 100/1000Base-TX. В то же время компания Intel продолжает выпуск и специализированных серверных гигабитных адаптеров Ethernet 100/1000Base-TX как отдельного PCI-решения. Следовательно, возникает вопрос — какое из решений лучше: интегрированное на системной плате сервера или в виде отдельной PCI-платы?

Решения, интегрируемые на серверные платы, могут быть как двухпортовыми на основе чипа Intel 82546EM, так и однопортовыми на основе чипа Intel 82540EM. К примеру, на новых серверных платах SE7501BR2 и SE7501VB2 используются интегрированные гигабитные адаптеры на базе однокристального чипа Intel 82540EM, а на серверных платах SE7501HG2 и SE7501WV2 интегрируются двухпортовые гигабитные адаптеры на основе чипа Intel 82546EM.

Новые гигабитные сетевые контроллеры компании Intel, выпускаемые в виде PCI-плат, могут быть построены также на основе однокристального чипа Intel 82546EM (двухпортовый гигабитный сетевой адаптер) или на базе чипа Intel 82545EM (однопортовый гигабитный сетевой адаптер).

В этой статье мы постараемся сравнить два гигабитных однопортовых серверных адаптера: интегрированного на серверной плате SE7501BR2 адаптера Intel 82540EM Based Server Adapter и PCI-адаптера Intel PRO 1000MT Server Adapter.

Участники тестирования

Intel 82540EM Based Server Adapter

Сетевой адаптер Ethernet 100/1000Base-TX Intel 82540EM Based Server Adapter, интегрированный на серверной плате SE7501BR2, построен на основе однокристального чипсета Intel RC82540EM, выполняющего функции контроллера физического уровня (PHY), контроллера Ethernet 10/100/1000 Мбит/с (MAC-уровень) и контроллера интерфейса PCI 2.2. В соответствии со спецификацией чипсета Intel 82540EM поддерживается 32-разрядная PCI-шина с тактовой частотой 33/66 МГц.

Контроллер Ethernet 10/100/1000 Мбит/с способен кэшировать до 64 дескрипторов пакетов и имеет 64 Кбайт буферной памяти для временного хранения данных во время пиковых нагрузок, а для управления потоком данных поддерживается протокол 802.3х.

Все остальные характеристики контроллера и соответственно сетевого адаптера типичны для всех гигабитных адаптеров и определяются самим стандартом. Напомним, что гигабитные адаптеры поддерживают функцию автосогласования (Auto-Negotiation) в соответствии со стандартом IEEE 802.3ab, способны определять полярность кабеля, что исключает необходимость использовать кроссоверный кабель для соединения двух адаптеров друг с другом.

Кроме того, адаптер поддерживает создание до 4096 виртуальных локальных сетей, соответствующих стандарту IEEE 802.1Q.

Помимо совместимости с различными стандартами, адаптер отличает использование технологий, позволяющих снизить загрузку центрального процессора. Так, вычисление контрольных сумм TCP/IP/UDP при получении пакетов выполняется в контроллере сетевого адаптера, а не в центральном процессоре.

Также в контроллере применена новая технология Advanced interrupt moderation (интеллектуальная технология снижения количества прерываний), способная снизить количество прерываний, тем самым разгружая процессорную подсистему. Данная технология позволяет накапливать несколько пакетов подряд, прежде чем генерировать прерывание для их обработки.

В начало В начало

Intel PRO 1000MT Server Adapter

Гигабитный сетевой адаптер Intel PRO 1000MT Server Adapter построен на основе нового однокристального чипа Intel RC82545EM, выполняющего функции контроллера физического уровня (PHY), контроллера Ethernet 10/100/1000 Мбит/с (MAC-уровень) и контроллера интерфейса PCI.

На плате адаптера имеется также флэш-память 39VF020 производства Silicon Storage Technology емкостью 128 Кбайт (2 МбитЅ8) для поддержки технологии Adaptive Technology (адаптивная технология), которая осуществляет загрузку микрокода в контроллер. Загрузка микрокода производится драйвером и необходима для подстройки контроллера на уровне кремния под конкретную операционную систему.

В соответствии со спецификацией чип Intel 82545EM поддерживают PCI-шина разрядностью 32 бит с тактовыми частотами 33 и 66 МГц и PCI-X-шина с тактовой частотой 100 и 133 МГц и разрядностью 64 бит.

Управление доступом к среде осуществляется на основе архитектуры Intel четвертого поколения, а согласование с физической средой передачи позволяет осуществить поддержку стандартов 10Base-T, 100Base-TX и 1000Base-T (IEEE 802.3, IEEE 802.3u, IEEE 802.3ab).

Канал Gigabit Ethernet имеет 64 Кбайт встроенной буферной памяти и может осуществлять предварительную загрузку до 64 дескрипторов пакетов, что снижает нагрузку на интерфейс PCI.

Так же как и в чипе Intel 82540EM, здесь реализована технология объединения прерываний для высвобождения процессорных ресурсов (Advanced interrupt moderation) за счет сокращения числа прерываний и группировки пакетов.

Адаптеры Intel PRO 1000MT Server Adapter можно объединять по технологиям Adaptive Load Balancing, Fast EtherChannel и Gigabit EtherChannel для получения суммарной скорости обмена до 16 Гбит/с. Adaptive Load Balancing является вариантом асимметричного объединения портов (один, ведущий, адаптер работает на прием и на передачу, а остальные — в ту сторону, куда больше трафик) и не требует никакой поддержки со стороны коммутатора. Технологии семейства EtherChannel являются разработкой фирмы Cisco Systems. Они полностью симметричны, но требуют поддержки со стороны коммутатора.

Дополнительные удобства обеспечивает система диагностики кабеля, определяющая его длину и тип (простой/перекрещенный).

Для расширения возможностей по управлению и мониторингу в контроллере имеется порт Smbus (System Management Bus — шина управления системой). Это двухпроводной последовательный интерфейс, основанный на протоколе Philips I2C. С его помощью устройства могут сообщать информацию о фирме-изготовителе, серийном номере, выполняемых функциях, замеченных ошибках и собственном состоянии.

Все остальные характеристики контроллера и соответственно сетевого адаптера типичны для всех гигабитных адаптеров и определяются самим стандартом. Кроме того, адаптер поддерживает создание до 4096 виртуальных локальных сетей, соответствующих стандарту IEEE 802.1Q.

В начало В начало

Методика тестирования

Сетевые адаптеры принято характеризовать по абсолютной пропускной способности в режиме передачи и получения данных, а также по так называемому индексу эффективной производительности, о котором мы расскажем ниже. Основной задачей нашего тестирования было измерение именно этих характеристик. К тому же с учетом того, что новые серверные платформы с процессорами Intel Xeon поддерживают технологию Hyper Threading, дополнительно рассматривался вопрос о влиянии технологии Hyper Threading на производительность сетевой подсистемы сервера.

Для проведения тестирования был собран стенд, состоявший из 20 рабочих станций, компьютера-контроллера, сервера и коммутатора.

На всех рабочих станциях и компьютере-контроллере были установлены сетевые адаптеры Fast Ethernet 100Base-TX, а на сервере — гигабитный сетевой адаптер 1000Base-T. Таким образом, сеть состояла из двух сегментов: первый сегмент — Fast Ethernet 100Base-TX — образовали рабочие станции и компьютер-контроллер, а второй сегмент — Gigabit Ethernet 1000Base-T — был образован каналом связи между сервером и коммутатором.

Использование именно 20 рабочих станций позволяло (даже с некоторым запасом) полностью загрузить гигабитный сетевой адаптер, устанавливаемый в сервере, поскольку программными эмуляторами сетевого трафика возможно создать скорость потока порядка 80-90 Мбит/с на каждой рабочей станции.

На всех рабочих станциях была установлена операционная система Microsoft Windows 2000 Professional SP3, а на сервере и компьютере-контроллере — Microsoft Windows 2000 Server SP3. Кроме того, на всех рабочих станциях и на сервере устанавливался стек сетевых протоколов TCP/IP.

Для объединения рабочих станций, контроллера и сервера в сеть использовался коммутатор Allied Telesyn AT-8236GB, предоставленный для проведения тестирования представительством компании Allied Telesyn (http://www.alliedtelesyn.ru/). Этот коммутатор имеет 24 порта 100Base-TX и два порта 1000Base-T. К одному из гигабитных портов коммутатора подключался сервер с гигабитным сетевым адаптером, а порты 10/100Base-TX использовались для подключения рабочих станций с адаптерами 10/100Base-TX.

В качестве сервера использовался двухпроцессорный сервер производства компании «Ф-Центр» (http://www.fcenter.ru/), основанный на новейшей платформе Intel.

Сервер был построен на базе системной платы SE7501BR2 с набором микросхем Intel E7501 (Plumas) с двумя процессорами Intel Xeon (Prestonia) 2,8 ГГц. В сервере устанавливалось 2 Гбайт памяти DDR266. Дисковая подсистема сервера состояла из пяти жестких SCSI-дисков, четыре из которых объединялись в RAID-массив уровня 0+1 с помощью четырехканального RAID-контроллера, а один диск использовался для установки операционной системы.

Учитывая, что серверная плата SE7501BR2 имеет интегрированный гигабитный адаптер Ethernet 100/1000Base-TX Intel 82540EM Based Server Adapter, при тестировании мы сначала использовали интегрированный адаптер, а следующий раз устанавливали PCI-адаптер Intel PRO 1000MT Server Adapter.

Для проведения тестирования в качестве программного генератора трафика мы использовали утилиту IOmeter 1999.10.20 компании Intel.

IOmeter — это синтетический тест, который по своей сути является программным генератором сетевого трафика и позволяет измерять практически все необходимые параметры. С его помощью можно измерять абсолютную пропускную способность сетевого адаптера как в режиме передачи, так и в режиме приема. Кроме того, измеряются скорость передачи/приема пакетов, количество операций ввода/вывода, степень утилизации процессора и многое другое. Важно отметить, что утилита IOmeter позволяет не только измерять указанные параметры, но и эмулировать необходимую модель сетевого доступа. Настройке подлежат такие параметры, как размер запроса приема/передачи, процентное соотношение между случайным и последовательным распределением запросов, процентное соотношение между распределением операций приема/передачи.

При проведении тестирования мы использовали следующие настройки утилиты IOmeter. В режимах приема и передачи данных на всех клиентах запускались программные генераторы (Dynamo), которые генерировали запросы на передачу или прием данных на сервер или с сервера. При этом на самом сервере никаких специальных приложений не запускалось, что в полной мере соответствует идеологии сервера. Действительно, в реальных сетях запросы на передачу данных на сервер или с сервера инициализируются клиентами сети. Сам же сервер только обслуживает эти запросы, но не инициализирует их.

Для создания стрессовой нагрузки на сетевую подсистему сервера, то есть для достижения максимально возможного сетевого трафика, все запросы носили стопроцентно последовательный характер, а время задержки между запросами устанавливалось равным нулю. Единственным изменяемым в данном случае параметром был сам размер запроса на передачу/прием данных, который составлял 64, 128, 256, 512 байт, 1, 2, 4, 8, 16, 32, 64, 128 и 256 Кбайт.

При эмуляции дуплексного режима работы на каждом из клиентов создавалось по два программных генератора, один из которых генерировал передачу данных, а второй — запросы на прием данных с сервера.

Измеряемыми параметрами во всех случаях являлись сетевой трафик, проходящий через тестируемый гигабитный адаптер, и утилизация процессорной подсистемы сервера.

Степень утилизации центрального процессора при максимальной скорости передачи — хотя и вторая, но не менее важная характеристика адаптера. Действительно, сравнивая два адаптера с равными пропускными способностями, предпочтение следует отдать тому из них, который в меньшей степени нагружает центральный процессор. В противном случае при высокой сетевой активности сервер с таким адаптером будет подвисать, делая невозможным решение каких-либо прикладных задач.

Зная две указанные характеристики, можно определить индекс эффективной производительности (Performance/Efficiency Index Ratio, P/E) как отношение пропускной способности адаптера (измеряемой в Мбит/с) к степени утилизации центрального процессора (измеряемой в %). Значение индекса эффективной производительности позволяет легко сравнивать адаптеры между собой: чем выше индекс, тем производительнее адаптер.

Кроме того, учитывая тот факт, что процессоры Intel Xeon (Prestonia) поддерживают технологию Hyper Threading, тестирование проводилось как при активации через настройки BIOS технологии Hyper Threading, так и при ее запрещении. В первом случае операционная система определяла в сервере четыре логических процессора, а во втором — два логических процессора.

В начало В начало

Результаты тестирования

Прежде чем сравнивать результаты тестирования адаптеров между собой, обсудим результаты тестирования каждого адаптера в отдельности.

Intel PRO 1000MT Server Adapter

Рассмотрим прежде всего результаты тестирования адаптера при активизации технологии Hyper Threading (табл. 1, рис. 1).

В режиме передачи сетевой трафик возрастает пропорционально размеру запроса, достигая насыщения при размере запроса, превышающем 8 Кбайт. Такое поведение легко объяснить тем, что при малых размерах запроса степень утилизации процессорной подсистемы сервера близка к 100%, то есть в данном случае узким местом является не сетевая подсистема сервера, а его процессорная подсистема. Максимальная пропускная способность для данной конфигурации составила 899 Мбит/с.

В режиме приема нагрузка на процессорную подсистему сервера значительно снижается и не доходит до 100% при любом размере запроса. В данном случае можно предположить, что достигаемая пропускная способность в большей степени обусловлена особенностями самого сетевого адаптера. Максимальный сетевой трафик в режиме приема составляет 901 Мбит/с.

В дуплексном режиме работы сетевой трафик, который, по всей видимости, также сдерживается самим адаптером, не превосходит 1111 Мбит/с (вместо ожидаемых 2 Гбит/с), несмотря на низкую степень утилизации процессора.

Рассмотрим теперь результаты тестирования адаптера Intel PRO 1000MT Server Adapter при отключении технологии Hyper Threading (табл. 2, рис. 2). Характер зависимости сетевого трафика от размера запроса в данном случае не меняется. Таким образом, сетевой трафик возрастает пропорционально размеру запроса, достигая насыщения при некотором размере запроса порядка 8 Кбайт. Однако, как нетрудно заметить, нагрузка на процессорную подсистему сервера в данном случае совершенно иная. С учетом того, что при отключении технологии Hyper Threading в системе остается всего два логических процессора (вместо четырех), нагрузка на процессорную подсистему сервера значительно возрастает. Так, в режиме передачи вплоть до размера запроса 8 Кбайт утилизация процессорной подсистемы сервера достигает 100%. В режиме приема процессорная подсистема становится узким местом вплоть до размера запроса в 1 Кбайт, а в дуплексном режиме обмена данными процессорная подсистема утилизируется на 100% вплоть до размера запроса 16 Кбайт.

Естественно, что такая загрузка процессорной подсистемы подразумевает и различия в сетевом трафике по сравнению с предыдущим случаем, когда технология Hyper Threading была активирована. При этом максимальных отличий в сетевом трафике следует ожидать именно при небольших размерах запроса, то есть высокой степени утилизации процессорной подсистемы сервера.

Путем сравнения результатов тестирования, представленных в табл. 1 и 2 (в графическом виде такое сравнение показано на рис. 3, 4 и 5), можно заметить, что различие в сетевом трафике действительно имеется, но… не такое, которое ожидалось.

В режиме приема отключение технологии Hyper Threading положительно(!) сказывается на росте сетевого трафика при малых размерах запроса и практически не отражается на величине сетевого трафика при размере запроса больше 8 Кбайт (то есть когда процессорная подсистема перестает быть узким местом).

В режиме передачи, когда нагрузка на процессорную подсистему велика независимо от активации технологии Hyper Threading, наблюдается обратная картина. При размерах запроса до 8 Кбайт отключение технологии Hyper Threading приводит к уменьшению сетевого трафика, а при превышении 8 Кбайт (когда утилизация процессора меньше 100%) — к росту сетевого трафика.

В дуплексном режиме работы отключение технологии Hyper Threading приводит к росту сетевого трафика при любых размерах запроса.

Таким образом, складывается довольно неоднозначная ситуация. С одной стороны, отключение технологии Hyper Threading обеспечивает больший сетевой трафик, но при этом возрастает нагрузка на процессорную подсистему сервера. С другой стороны, использование технологии Hyper Threading снижает нагрузку на процессорную подсистему сервера, но параллельно сокращается максимально возможный сетевой трафик.

Для того чтобы ответить, какой из двух режимов более предпочтителен, рассмотрим индекс эффективной производительности (Performance/Efficiency Index Ratio, P/E) для всех трех режимов передачи данных (рис. 6, 7, 8).

Сравнение режимов с Hyper Threading и без нее показывает, что для всех режимов передачи и для всех размеров запроса индекс эффективной производительности адаптера оказывается значительно выше в случае активации технологии Hyper Threading. Это особенно актуально при использовании реальных приложений, а не синтетических стрессовых тестов. К примеру, если сервер используется в сети в качестве файл-сервера, то на центральный процессор, помимо обслуживания запросов ввода-вывода со стороны сетевой подсистемы, ложится задача по обслуживанию прерываний со стороны дисковой подсистемы, поскольку копирование и запись файлов происходят при непосредственном участии дисковой подсистемы сервера. В результате загрузка процессора возрастает еще больше и производительность процессорной подсистемы начинает тормозить производительность сетевой подсистемы сервера. Очевидно, что использование технологии Hyper Threading в данном случае позволит получить выигрыш за счет роста результирующего сетевого трафика.

Для того чтобы проверить это предположение, мы воспользовались тестовым пакетом NetBench 7.02, предназначенным для тестирования файл-серверов и позволяющим эмулировать нагрузку на сервер со стороны множества клиентов. В отличие от синтетического теста IOmeter, в данном случае нагружаются все подсистемы сервера: процессорная, дисковая и сетевая. Как показывают результаты тестирования (рис. 9), использование технологии Hyper Threading в данном случае обеспечивает рост сетевого трафика.

Итак, подводя итог оценки влияния технологии Hyper Threading на сетевой трафик, можно сделать следующий вывод.

При определении максимально возможного сетевого трафика (как характеристики сетевого адаптера) технологию Hyper Threading желательно отключать. Если же речь идет о реальном использовании сетевого адаптера в сервере, то активация технологии Hyper Threading положительно сказывается на максимально достижимом сетевом трафике.

В начало В начало

Intel 82540EM Based Server Adapter

После подробного обсуждения результатов тестирования адаптера Intel PRO 1000MT Server Adapter перейдем к рассмотрению возможностей, которые дает использование интегрированного адаптера Intel 82540EM Based Server Adapter.

Прежде всего отметим, что чип Intel 82540EM используется в гигабитных адаптерах для рабочих станций, то есть изначально не является серверным адаптером. Сам же гигабитный адаптер подключен к 32-разрядной PCI-шине, причем, по всей видимости, к 33-мегагерцевой, а не к 66-мегагерцевой шине. С учетом того, что теоретическая пропускная способность такой шины составляет 1056 Мбит/с, то есть лишь немногим более 1 Гбит/с, сама PCI-шина ограничивает максимально возможный сетевой трафик. Поэтому мы ожидали, что результаты тестирования интегрированного адаптера окажутся несколько хуже результатов адаптера Intel PRO 1000MT Server Adapter. Впрочем, прежде чем сравнивать результаты тестирования двух адаптеров между собой, рассмотрим влияние технологии Hyper Threading на максимальный сетевой трафик для адаптера Intel 82540EM Based Server Adapter.

При активировании технологии Hyper Threading характер зависимости сетевого трафика от размера запроса в режимах приема, передачи и дуплексного обмена данными остается таким же, как и в случае адаптера Intel PRO 1000MT Server Adapter (табл. 3, рис. 10).

При отключении технологии Hyper Threading (табл. 4), как и в случае адаптера Intel PRO 1000MT Server Adapter, наблюдается значительное увеличение нагрузки на процессорную подсистему сервера и изменение сетевого трафика (табл. 4, рис. 11).

Однако по сравнению с адаптером Intel PRO 1000MT Server Adapter обращает на себя внимание тот факт, что разница между размерами сетевого трафика в режимах с включенной и отключенной Hyper Threading не столь значительна. В режиме приема различие в сетевом трафике наблюдается только при размере запроса до 8 Кбайт. При этом отключение Hyper Threading сказывается на возрастании сетевого трафика. При больших размерах запроса различия в сетевом трафике практически нет (рис. 12). В то же время утилизация процессорной подсистемы сервера значительно уменьшается при активизации режима Hyper Threading при размере запроса более 256 байт.

В режиме передачи (исходящий трафик) блокирование технологии Hyper Threading приводит к уменьшению сетевого трафика при размере запроса вплоть до 1 Кбайт. При больших размерах запроса разница между сетевыми трафиками становится несущественной. Кроме того, использование технологии Hyper Threading позволяет снизить нагрузку на процессорную подсистему при размере запроса более 2 Кбайт (рис. 13).

В дуплексном режиме работы использование технологии Hyper Threading приводит к незначительному уменьшению сетевого трафика при размере запроса менее 4 Кбайт, а при больших размерах запроса разница в сетевом трафике практически исчезает (рис. 14).

Вывод, который следует из приведенных результатов аналогичен выводу, полученному при тестировании адаптера Intel PRO 1000MT: для получения максимально возможного сетевого трафика (как характеристики сетевого адаптера) технологию Hyper Threading необходимо отключать. Однако при использовании адаптера в реальных условиях активация технологии Hyper Threading положительно сказывается на максимально достижимом сетевом трафике.

В начало В начало

Сравнение адаптеров

Рассмотрев особенности поведения каждого из адаптеров, мы можем сравнить полученные результаты.

Как уже было сказано, результаты тестирования серьезно зависят от использования технологии Hyper Threading. Несмотря на то что активизация Hyper Threading вызывает снижение максимального сетевого трафика, мы проведем сравнение адаптеров именно в режиме использования технологии Hyper Threading, поскольку активизация данного режима позволяет добиться более высокого сетевого трафика при использовании сервера в качестве файл-сервера за счет снижения нагрузки на процессорную подсистему.

При этом, однако, отметим, что сравнение адаптеров в режиме отключения технологии Hyper Threading приводит к аналогичным результатам (не по абсолютным значениям, а в плане наблюдающихся закономерностей).

Итак, тестирование показывает (рис. 15, 16, 17), что адаптер Intel PRO 1000MT во всех режимах передачи позволяет достигнуть более высокого сетевого трафика по сравнению с адаптером Intel 82540EM Based Server Adapter. Особенно значительно преимущество адаптера Intel PRO 1000MT в режиме передачи данных.

 

Редакция выражает признательность компании Ф-Центр (http://www.fcenter.ru/) за предоставление сервера и гигабитного адаптера Intel PRO 1000MT Server Adapter для проведения тестирования.

Редакция выражает признательность российскому представительству компании Allied Telesyn (http://www.alliedtelesyn.ru/ за предоставление коммутатора Allied Telesyn AT-8236GB для проведения тестирования.

КомпьютерПресс 1'2003