Jumbo Frames

Функция позволяет  увеличить  размер поля для данных в пакете IP.  Получается, что мы тем же числом  пакетов  (то  есть с теми же накладными  расходами)  передаем  больше  полезной  информации. Если  в стандартном  IP-пакете поле для данных имеет размер 1500 байт, то при использовании Jumbo Frame – до 9000 байт.

 должны  поддерживаться всеми узлами  сети, то есть должны быть включены  на физических коммутаторах, виртуальных коммутаторах или распределенных вКоммутаторах,  а также  в физических и виртуальных серверах. Jumbo  Frames  могут использоваться с сетевыми контроллерами 1 Гбит и 10 Гбит.

Jumbo  Frames  могут  использоваться виртуальными машинами   и  портами VMkernel  для трафика  NFS, iSCSI  и vMotion.  Для начала использования нам необходимо включить их поддержку на физических коммутаторах, затем для vSwitch  и dvSwitch,  а далее настроить  их использование внутри ВМ или для виртуального контроллера VMkernel.

Проще  всего  включить  их использование для  распределенного  коммутатора: Home ? Networking ? в контекстном меню dvSwitch пункт Edit Settings ? Advanced ? Maximum MTU. Указываем  размер поля для данных. Чаще всего ис-

пользуется максимальный – 9000.

Для  стандартных  коммутаторов VMware  включение  Jumbo  Frames делается в два этапа.

Сначала подключитесь с помощью ssh или vSphere CLI к серверу ESX(i).

Выполните  команду

esxcfg-vswitch -m <MTU>  <vSwitch>

Посмотреть текущие настройки можно командой

esxcfg-vswitch –l

Итак, первый шаг – включение поддержки на виртуальных коммутаторах – вы сделали. Шаг номер два – включить эту функцию на ВМ и/или на интерфейсах VMkernel.

Чтобы использовать с ВМ, в качестве гостевых ОС должны использоваться Windows Server (2003 или 2008, Enterprise или Datacenter Edition), Red Hat  Enterprise Linux 5.0, SUSE Linux Enterprise Server 10. Тип виртуального сетевого адаптера  должен  быть vmxnet2  или vmxnet3.  В документации VMware  написано  «Для включения смотрите документацию гостевой ОС». Но для Windows это делается примерно так, как показано на рис. 2.35.

Рис. 2.35. Настройки в драйвере vmxnet3

Для проверки работы отправьте большой пакет соседней ВМ:

ping  -f -l 8972 <адрес ВМ>

На выходе должно получиться что-то вроде:

ping  <IP ВМ>  8972(9000)  bytes  of  data.

8980 bytes  from <адрес ВМ>:  icmp_seq=1 ttl=128 time=3.36  ms

и VMkernel

Для  использования Jumbo  Frames  с  интерфейсами VMkernel  необходимо включить эту функцию  на них. Выполните  команду

esxcfg-vmknic  –l

Будет отображен список существующих интерфейсов VMkernel. Если в столбце MTU  стоит значение  1500, значит,  не используется. К сожале-

Разное

нию, изменить  эту настройку  для уже существующего  интерфейса нельзя, можно только его пересоздать. Для этого удалите существующий интерфейс, для которого хотите включить . Когда удаляемый интерфейс подключен к стандартному виртуальному коммутатору, синтаксис команды следующий:

esxcfg-vmknic  –d <название группы портов,  куда подключен  удаляемый  интерфейс>

Затем создайте новый командой

esxcfg-vmknic  -a  -i <ip  address>  -n  <netmask> -m <MTU>  <название группы портов,  куда должен  быть подключен  создаваемый интерфейс >

Замечание по поводу  синтаксиса  вышеприведенных команд:  у каждого  интерфейса  VMkernel  есть собственное  имя вида vmk#.  Каждый  такой интерфейс числится  подключенным к группе  портов.  При  выполнении  вышеприведенных команд  под <название группы  портов, куда подключен удаляемый интерфейс> понимается  как раз название группы портов, а не интерфейса.

Будьте  осторожны  – удаление  интерфейса VMkernel  может привести  к разрыву сессий vMotion,  FT, iSCSI  или NFS. Убедитесь в том, что интерфейс не используется,  перед его удалением.  Также  имейте  в виду, что после пересоздания MAC-адрес  интерфейса изменится.

Обратите внимание. нельзя включить на ESXi с бесплатной лицензией.

Те команды по удалению и созданию интерфейса VMkernel,  что были показаны выше, даны в варианте для стандартных вКоммутаторов. В случае использования распределенных вКоммутаторов есть небольшой нюанс.

В актуальной на момент написания версии vSphere CLI не оказалось способа создать интерфейс VMkernel  на распределенном виртуальном коммутаторе.  Поэтому следует поступить следующим образом.

1.    Создать интерфейс VMkernel  с MTU = 9000 на каком-то стандартном виртуальном коммутаторе  описанным  выше способом.

2.    Перенести  этот интерфейс на распределенный виртуальный коммутатор.

Для  этого  пройдите  Configuration ? Networking ? кнопка  Distributed

Virtual Switch ? ссылка Manage Virtual Adapter ? Add ? Migrate existing
virtual adapter.

имеет смысл использовать для интерфейсов VMkernel, задействованных под любые задачи. Единственное исключение – трафик управления ESXi.

2.4.5. TSO – TCP Segmentation Offload,  или TOE – TCP offload engine

TOE (TCP offload engine) – функция физического сетевого контроллера, когда часть работы по обработке  стека TCP/IP, такая  как формирование и подсчет контрольной суммы  пакетов,  выполняется не службой  в ОС,  а самим контрол-

лером. Часть этого механизма  – TSO, TCP  Segmentation Offload, функция также известна как «large segment offload», или LSO. TSO позволяет обрабатывать  большие пакеты (до 64 Кб) при любом размере MTU, формируя из большого пакета большее количество  пакетов меньшего размера.

В документации VMware  обычно употребляется термин  TSO, прочие названия приведены  для справки.

Включение этой функции позволяет  снизить нагрузку на процессоры сервера и повысить  скорость  работы сети.   Заметная разница  в нагрузке на процессоры  сервера  будет, скорее всего, лишь  в инфраструктурах со значительным сетевым трафиком.

Формально мы можем задействовать эту функцию  для трафика  ВМ и VMker nel. «Формально» – потому, что мне встречались утверждения инженеров VMware, что в vSphere  (в первых версиях,  по крайней  мере) сетевые контроллеры с TSO работают,  но для  трафика  ВМ TSO  не используется, так как внутренние  тесты не  показали   значимой  эффективности на  разнообразных задачах  (см.  http:// communities.vmware.com/thread/217825). Для  трафика  ВМ эту функцию можно задействовать, прокинув  физический сетевой контроллер в ВМ с помощью функции VMDirectPath.

Может потребоваться включение TSO в BIOS сетевого контроллера. Обрати те внимание, что если контроллер с поддержкой TSO значится в списке совместимости ESX(i), то это означает, что ESX(i) заработает  с этим сетевым контроллером, но не гарантирует работу с его функциями TSO. Если вас интересует именно функционал TSO, то совместимость контроллера с ESX(i) нужно проверять именно с упором на TSO (по документации к сетевому контролеру).

Для интерфейсов VMkernel TSO включен по умолчанию. Проверить это можно, выполнив  команду

esxcfg-vmknic  –l

Если в столбце TSO MSS значение 65535, то TSO включен. Если он выключен, то единственный способ его включить  – пересоздать интерфейс заново (как  это сделать, описано в разделе про ).

Выключить  использование TSO  для  ESX(i) можно  через  расширенные  настройки. Пройдите  в настройки сервера: Configuration ? Advanced Settings для Software ? настройке UseHwTSO вам нужно присвоить значение нуль.

Скорее всего, выключение  может потребоваться лишь в случае проблем с использованием этой функции с вашими сетевыми контроллерами. В случае проблем перед отключением  TSO обновите прошивку  контроллера и ESX(i) (или  отдельно драйвер для контроллера).

2.4.6. VMDirectPath

Функция VMDirectPath позволяет  выделять  в приватное  пользование ВМ контроллер в слоте PCI  сервера. Таким контроллером может быть сетевая карта. Подробности см. в разделе про компоненты ВМ.

Разное

2.4.7. Отдельные порты

На распределенном виртуальном коммутаторе виртуальные машины подключаются к группам портов и к портам с конкретным номером. Например, в свойствах ВМ вы можете увидеть  возможность подключения виртуального сетевого контроллера к конкретному порту – рис. 2.36.

Рис. 2.36. Настройка сетевого подключения ВМ к отдельному порту dvSwitch

Это может быть важно по той причине, что для распределенных виртуальных коммутаторов изменять настройки (такие как VLAN, traffic shaping, security и др.) можно и для отдельного порта.

Источник: Михеев М. О.  Администрирование VMware vSphere 4.1. – М.: ДМК Пресс, 2011. – 448 с.: ил.

Похожие посты:

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий