NetApp
Компания
46,86
рейтинг
19 августа 2010 в 09:11

Разное → FCoE: Будущее Fibre Channel

image
Шум вокруг планов в отношении Fibre Channel over Ethernet (FCoE), объявление о поддержке его почти каждым производителем в нашей индустрии, все выглядит так, словно этот транспорт намеревается в ближайшее время окончательно вытеснить существующие сети Fibre Channel. Усилия по стандартизации завершились ратификацией, в 2009 году, поэтому многие производители, в том числе (и одними из первых) NetApp, и наш давний партнер Cisco, активно выводят продукты с использованием FCoE на рынок.

Если вы сегодня используете технологию Fibre Channel, вам следует разобраться и подготовиться к приходу этой новой технологии. В этой статье, я попробую ответить на некоторые важные вопросы, которые могут возникнуть о технологии FCoE, такие как:
  • Что такое FCoE?
  • Почему именно FCoE?
  • Каковы возможности FCoE?
  • К чему нам готовиться в будущем?

Что такое FCoE?


Fibre Channel over Ethernet, или FCoE, это новый протокол (транспорт), определенный стандартом в комитете T11. (T11 это комитет в составе International Committee for Information Technology Standards— INCITS —отвечающий за Fibre Channel.) FCoE переносит фреймы Fibre Channel через Ethernet, инкапсулируя кадры Fibre Channel в jumbo frames Ethernet-а. Стандарт в полном объеме ратифицирован в 2009 году.

Почему FCoE?


Предпосылки, стоящие за созданием FCoE были в идее консолидировать ввод-вывод, и позволившей бы, тем самым, безопасно сосуществовать различным типам трафика в одном «проводе», что уменьшит номенклатуру и упростит кабельное хозяйство, уменьшит количество необходимых адаптеров на хост и снизит энергопотребление.


Рис 1) Снижение сложности с использованием FCoE.

Сила, которая ведет вперед FCoE, это необходимость снижения совокупной стоимости владения (total cost of ownership (TCO)), одновременно с сохранением существующей инфраструктуры и обратной совместимости, а также привычных процедур и процессов. С помощью конвергенции Fibre Channel и Ethernet, и устранения необходимости в использовании разных сетевых технологий, FCoE обещает значительное снижение сложности сетевой структуры, а учитывая еще и стремительное дешевение элементов инфраструктуры 10Gb Ethernet — еще и снижение стоимости.

Первоначально, большинство внедрений FCoE делалось на «уровне» хост-систем и коммутаторов, в то время, как системы хранения продолжали использовать нативный Fibre Channel вместо FCoE. Это помогает сохранить большие инфраструктурные вложения, которые делались в FC на протяжении многих лет.
Большое достоинство FCoE в том, что он обеспечивает плавную миграцию от FC, как интерфейса, к Ethernet (сохраняя при этом FC как протокол). Можно будет расширять, или заменять часть вашей сети FC на коммутаторы Ethernet, позволяя вам осуществить переход от одной сетевой технологии (FC) к другим (Ethernet), по мере того, как это станет необходимым.
В дальней перспективе, если FCoE окажется успешен, вы сможете выбрать при обновлении вашей инфраструктуры, или построении нового датацентра, систему хранения, нативно поддерживающую FCoE. NetApp объявил о нативной поддержке в своих системах протокола и target HBA FCoE и параллельно продолжит поддержку Fibre Channel на всех своих системах.
А недавно NetApp и Cisco объявили о завершении процесса сертификации первого в индустрии решения «полностью FCoE», «от хоста, до хранилища», для систем серверной виртуализации под управлением VMware vSphere.

Внедрение FCoE


Существует два возможных пути развертывания FCoE в вашей IT-системе:
  • Использовать аппаратный initiator при помощи converged network adapter (CNA), и аппаратного target, что похоже на существующую модель использования Fibre Channel.


Рис 2) CNA поддерживает как FC так и Ethernet на одном устройстве, снижая количество необходимых сетевых устройств.

Производители CNA это, как правило, компании, знакомые нам по FC HBA, такие как Qlogic, Emulex, и Brocade, но скорее всего, стоит ожидать среди них появления и производителей традиционных Ethernet NIC, таких, как Intel и Broadcom. Обе они активно участвуют в рабочей группе T11 (FC-BB-5), разрабатывающей стандарты FCoE.
  • Использовать программный initiator и target с обычными 10 Gigabit Ethernet (10GbE) NIC.

В декабре 2007, Intel выпустил программный initiator, чтобы помочь разработке решений FCoE под Linux. Ожидается, что различные дистрибутивы Linux будут поставляться с программным FCoE initiator. Такая идея, что дистрибутивы Linux будут поставляться «FCoE ready», похожа на то, как все OS сегодня являются «iSCSI ready».
Думаю, что такое программное решение будет достаточно быстрым за сравнительно небольшую цену, по сравнению с чисто аппаратным решением. Так как на практике мы покупаем сервера «навырост», с определенным запасом по производительности, в расчете на определенный рост наших задач и приложений, у нас, обычно, всегда есть на них и некоторый запас мощности CPU. Рынок iSCSI подтверждает эту теорию, в том числе и в виртуальных инфраструктурах.


Рис 3) Стек программного инициатора FCoE.

Что сохраняется?


Для тех, кто уже использует Fibre Channel, при использовании FCoE сохранится необходимость настройки зонинга и маппинга LUN-ов, равно как и обычные задачи в фабрике, такие как registered state change notification (RSCN) и link state path selection (FSPF). Это означает, что миграция на FCoE будет относительно простой и знакомой. Любые изменения болезненны, однако переход на новый протокол, когда он может использовать наработанные процедуры, процессы и ноу-хау, делает такой переход в Ethernet проще, и будет являться большим преимуществом FCoE.

Чем FCoE отличается от iSCSI?


FCoE не пользуется TCP/IP, который использует iSCSI, и имеет, вследствие этого, ряд отличий, таких как:
  • Использованием «pause frame»
  • Использование «Pause с приоритетом»
  • Отсутствие TCP retries (таймаутов)
  • Отсутствие возможности IP-маршрутизации
  • Отсутствие «broadcast storms» (не используется ARP)



Рис 4) Сравнение различных блочных протоколов.

Так как в FCoE целиком и полностью не используется уровень IP, то это значит, что FCoE не маршрутизируемый. Однако, это не означает, что он не может быть маршрутизирован вовсе. Маршрутизация FCoE может быть выполнена, при необходимости, при помощи таких проколов, как FCIP.

Протокол iSCSI может быть использован в сети с потерей пакетов, и не безусловно требующей 10GbE. Для FCoE необходим именно 10GbE, и сеть без потерь пакетов, с инфраструктурными компонентами, правильно обрабатывающими запросы pause frame и per priority pause flow control (PFC), основанными на различных классах трафика, соответствующих разным приоритетам. Идея, лежащая в основе PFC состоит в том, чтобы, в моменты высокой загрузки канала, предоставить высокоприоритетному трафику преимущество в передаче, в то время, когда низкоприоритетный трафик будет задержан в пользу высокоприоритетного с помощью pause frame.
На коммутаторах 10GbE также потребуется поддержка Data Center Ethernet (DCE), расширения Ethernet, включающего в себя классы сервиса (classes of service), лучшую регулировку потока (congestion control), и улучшенные возможности управления. FCoE также требует поддержку Jumbo Frame, так как пакет FC имеет размер 2112 байт и не может быть разделен при передаче; iSCSI не требует обязательного использования Jumbo Frames.

Выбор между FCoE и iSCSI


Более строгие требования к инфраструктуре, характерные для FCoE, по сравнению с iSCSI, могут влиять на то, какой протокол вы выберете. В ряде случаев, выбор протокола определяется тем, какой из них поддерживается производителем ПО.
Кроме этого вы, возможно, предпочтете iSCSI в случае, если ваши цели:
  • Низкие затраты
  • Простота использования

iSCSI будет работать на вашей нынешней инфраструктуре, с минимальными ее изменениями. Требования по сетевой инфраструктуре для FCoE могут означать, что вам будут нужны устройства типа converged network adapter (CNA) и новые коммутаторы, поддерживающие DCE. (В будущем вы, возможно, сможете использовать существующие NICs в комбинации с программным инициатором, так, как это работает сегодня для iSCSI.)
Поскольку iSCSI работает поверх TCP/IP, управление такой сетью будет более знакомо, установка и управление ей проще. FCoE не использует TCP/IP. Его администрирование более похоже на администрирование традиционных FC SAN, которое может быть довольно непростым, в случае, если вы незнакомы с администрированием FC SAN.
Другими словами, вы, возможно, предпочтете FCoE в том случае, если уже имеете значительный опыт с сетями SAN на Fibre Channel (FC SAN), в особенности, если ваши требования включают в себя:
  • Поддержку mission-critical приложений
  • Высокую доступность данных
  • Максимально возможную производительность

Это не значит, что iSCSI не соответствует таким требованиям. Однако Fibre Channel уже хорошо зарекомендовал себя в течение длительного времени использования в таких системах; FCoE предлагает идентичный набор возможностей и полностью совместим с существующими сетями FC SAN. Он просто заменяет физический уровень Fibre Channel на 10GbE.
Преимущества в производительности FCoE над iSCSI все еще требуют подтверждений. И тот и другой используют 10GbE, но TCP/IP может увеличить задержки для iSCSI, возможно давая FCoE небольшое преимущество в сходной среде.
Эти принципы совместимы с текущими практиками применения как для iSCSI, так и FC SAN. До настоящего времени наиболее выгодной областью применения для iSCSI была консолидация хранилищ сред Windows, преимущественно на 1GbE. Использование iSCSI обычно для вспомогательных и резервных датацентров в больших организациях, в основных датацентрах компаний меньшего размера, и в удаленных офисах.
Системы Fibre Channel доминируют в больших датацентрах, в крупных организациях, и, как правило, используются для mission-critical приложений в системах UNIX и Windows. Примеры обычного поля использования это хранилища данных типа «data warehouse», data mining, enterprise resource planning, и OLTP.

Что будет с Fibre Channel?


Со всем этим шумом вокруг FCoE, что же случится с Fibre Channel? Произойдет ли переход на технологии 16Gb FC, или рулить теперь станет только FCoE? Будет ли Ethernet продолжать дальнейшую разработку (40GbE и 100GbE)? Как можно увидеть в текущих роадмапах, 16Gb FC запланирован на 2011 год. В свежих пресс-релизах FCIA утверждается сильная поддержка разработки 16Gb FC наряду с поддержкой FCoE. Я думаю, что 16Gb FC несомненно появится, но большой вопрос, насколько быстро он будет принят рынком, относительно FCoE. На сегодняшний день уже существующий несколько лет 8Gb FC явно не повсеместно заменяет собой 4Gb FC. Многие как производители оборудования, так и заказчики с большими сетями FC уже сегодня активно переориентируются на FCoE, как на более перспективное в будущем и экономически более целесообразное решение.

Что вам нужно делать?


Что вам нужно делать зависит от вашей ситуации. Если вы многое вложили в Fibre Channel, и вам не нужно обновляться в течение нескольких ближайших лет, то лучше, возможно, не делать ничего. Если вы запланировали обновление в на ближайший год-два, то тогда обратите серьезное внимание на FCoE. Судя по всему, нынешние производители коммутаторов FC намерены переводить своих пользователей в Ethernet, и, возможно, прекратят создание собственных FC-коммутаторов.

Технологии могут решить многие проблемы, однако вопросы взаимодействия между группами в крупных организациях явно не то, где они помогут. Одной из проблем, с которыми, например, столкнулись при внедрении iSCSI в больших компаниях, был конфликт областей ответственности между группами сетевых администраторов, и администраторов сети и систем хранения. В традиционной инфраструктуре FC, парни из группы админов сети хранения полностью отвечают за FC-fabric и владеют на нее всеми правами, в случае iSCSI она находится в ведении группы сетевых админов компании. В случае успеха FCoE, группы должны будут сблизиться, им придется работать ближе друг к другу, чем когда-либо, и это, как ни парадоксально, может оказаться крупнейшей проблемой, стоящей на пути FCoE в IT-инфраструктуры компаний.

Выводы


Хотя FСoE создает определенные сложности при решении, где и как вы его можете применить, его долговременные перспективы и преимущества ясны. Консолидировав ваши сети на одной Ethernet fabric, вы сможете заметно снизить как капитальные затраты, так и затраты на администрирование, без жертвования возможностями выбора протокола, который наилучшим образом удовлетворяет потребностям приложений.
Вне зависимости от того, что вы выберете, iSCSI, FCoE, или комбинацию из них, системы хранения NetApp поддерживают все эти протоколы хранения одновременно, на одной системе хранения. Выбор систем хранения NetApp может обеспечить безопасность и защиту вложений при необходимости дальнейшего развития IT-инфраструктуры.
 
Автор: @track
NetApp
рейтинг 46,86
Компания прекратила активность на сайте

Комментарии (18)

  • +1
    А разве по цене 10G ethernet не сильно дороже любого FC?
    • +3
      Ну, разобьем вопрос на несколько частей.

      Сколько стоит аппаратный HBA на 10G, тот, что называется CNA — Converged Network Adapter. Судя по текущей ситуации на price.ru (хотя такие вещи не на прайсру покупают, конечно) двухпортовый 10G CNA Cisco-Emulex стоит в районе полутора тысяч долларов. Это два порта, каждый по 10G, с аппаратной поддержкой работы как FC, так и «обычного Ethernet», например iSCSI или NFS/CIFS.
      Это несколько дороже, чем текущая цена на FC HBA на 4Gb, однако сравнимо с HBA на 8Gb. При этом потенциал у 10G выше, а в тот же провод можно запихнуть и другой трафик, то есть вместо нескольких адаптеров (как нарисовано на первом рисунке), каждый за некоторые немаленькие деньги, отдельно FC, отдельно Ethernet, все можно пустить по одному кабелю. Экономия на: картах, кабелях, портах коммутатора и target.

      Часть два: стоимость инфраструктуры. Тут считать сложнее, и прайсру тут нет. Но мы имеем упрощение физической топологии и некую экономию на затратах на администрирование, я полагаю (точно считать надо в каждом конкретном случае). А также экономия на электричстве. И это совсем не «экономия на спичках», как показывает реальная практика.

      Часть три. Тут следует понимать, что переход в FCoE делают чаще всего не затем, чтобы сэкономить «тыщонку-другую». FCoE интересен прежде всего другим. Экономия возможна, как показана в части первой, но это совсем не решающий аргумент для тех компаний, которые переходили и переходят в инфраструктуре на FCoE.

      Вот примерно в таком аспекте.
    • 0
      Да, забыл отметить, что если брать не CNA, а обычные 10G NIC, просто сетевые карты, без «аппаратной поддержки», и делать «софтверно» (об этом также выше упомянуто), то они уже упали баксов до 500 за порт, по моему, если не ниже. Давно смотрел, а динамика дешевения у них ну очень стремительная.
      • +1
        Ох, ё! А действительно, давно я не смотрел что делается с ценами.
        Двухпортовый Planet ENW-9800 уже по 500, то есть даже 250$ за порт.
        Этак скоро их домой в домашние NAS-ы станут покупать :-)
    • 0
      FCoE дороже «стандартных» инфраструктур, порой заметно.
      Как верно ответили — делается он не ради «сэкономить»…

      Очень многие не любят совмещать SAN и LAN в одной сети/девайсах — вот главная причина, почему FCoE буксует.
  • +1
    Для меня пока наиболее предпочтительным остается AOE, а не FCoE или iSCSI.
    Почему? Наименьшие накладные расходы, простота реализации, низкие задержки, высокое быстродействие, простота резервирования/наращивания мощности.
    • 0
      Это все же в разных областях и в разных «весовых категориях» игроки. Примерно как велоипед и танк, наверное. :)
    • +1
      Вынесу из привата, потому что возможно будет интересно не только спросившему

      > А Вы можете мне «на пальцах» объяснить, какие преимущества у FCoE перед AOE?
      > Я не вижу критических.

      Тут вопрос в том, что и для кого считать критическим. Я не зря привел сравнение в виде велосипеда и танка. Перечисление преимущества велосипеда будут совершенно неубедительными для «пользователя танка» (равно как и наоборот). Нет «общего поля» для спора.
      И дело не в том, что кто-то из них лучше или хуже, просто они «для разного».

      Например, я могу вам сказать, что под FCoE (и iSCSI) есть «аппаратно» их реализующие стораджи, с огромной производительностью, что FCoE (и iSCSI) сертифицирован на совместимость и поддерживается тем или иным ПО (каким-нибудь Oracle, к примеру), а это значит, что вы можете его использовать в поддерживаемых производителем системах. Что FCoE используется в десятках и сотнях проектов для бизнес-критичных систем, и заркомендовал себя стабильным и надежным, а вот насчет сколь-нибудь значительных, как по размеру, так и по задачам, инсталляций я что-то даже и не слышал, до сих пор считал, что это какой-то такой забавный эксперимент, не имеющий практичской цености, вроде RAID-5 на флопиках ;).

      Но для ваших целей все эти аргументы, я подозреваю, аргументами являться не будут, потому что у вас задачи из иной области.

      То есть даже то, чем явно гордятся на страничке ATA-over-Ethernet в Википедии, что «спецификация занимает всего 12 страниц, против 278 у iSCSI», это, на мой взгляд довольно сомнительное достоинство, говорящее скорее об ограничнности, недостаточной прспективе и менее подробной проработке (обычно «вылазящей боком» в совместимости разного «железа»).

  • +2
    FC через несколько лет ожидает судьба FR — некогда оплота корпоративных сетей передачи данных.
    • 0
      Ну это неизбежно, все когда-то рождается, развивается, затем устаревает и остается доживать в какой-то нише, а на его место выходит что-то новое.
      Всегда так было, всегда будет.
  • +1
    Ну, здорово. Сначала мы отделяем сети хранения данных от локальных сетей, потому что это выгодно, а потом объединяем их обратно, потому что это выгодно.
    • +1
      Разумеется. :) Как говорится «ничего личного, только бизнес» ;)
  • 0
    Интересно, почему размер jumbo-frame для 10Гбитной сети выбран столь малым (2112 байт), если даже для обычного ethernet-гигабита стандарт «де-факто» 9кбайт?
  • 0
    “Технология FCoE для построения законченных сетей от серверов до систем хранения данных (FCoE end-to-end) не востребована рынком и компания Brocade не ожидает, что эта технология станет в обозримом времени востребована для этих целей” © Brocade.

    Пост закрыт.
    • 0
      > Технология FCoE для построения законченных сетей от серверов до систем хранения данных (FCoE end-to-end) не востребована рынком

      «А мужики-то не знают!»

      Да, © Brocade, они смешные. Лет пять назад они также рассказывали про то, что iSCSI это мертворожденный протокол, и никто им пользоваться не будет, а все будущее — за FCIP.
      Классический пример, описанный в «Лисе и винограде» :)
      • 0
        Игнорировать Brocade не получится — они так сказали и я перестал упоминать в своих выступлениях FCoE вообще, чтобы не бередить душу.
        • 0
          > Игнорировать Brocade не получится

          Ну, не сотворяйте себе кумира. Не один Brocade на рынке.

          > они так сказали

          Почему сказали — понятно. Потому что главный их на сегодня конкурент — Cisco, а она имеет отличные позиции в области Ethernet.

          Но что касается объективности — Brocade, как апологету native-FC просто нечего противопоставить эквивалентного к 40G Ethernet, который уже пошел в продакшн.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное