Сеть хранения данных san

Сеть хранения данных san

Методов создания информационной инфраструктуры в пределах предприятия довольно много. Но наиболее перспективна сейчас — SAN.

Сеть хранения данных — специализированный способ присоединения СХД. SAN, (название на английском: Storage Area Network) предназначен для того, чтобы внешние хранилища памяти подключались через сетевые интерфейсы так, чтобы система распознала их в качестве локальных.

Заказать расчет SAN:

Зачем нужен

SAN помогает решить ряд задач, которые периодически появляются в современных IT- структурах:

отображение сетевых хранилищ в качестве локальных, что увеличивает производительность и дает более широкие возможности оптимизации хранилищ;

построение отказоустойчивых систем с физическими хостами;

легкое подключение новых RAID- массивов без прекращения действия инфраструктуры;

возможности резервного копирования заметно шире, чем у аналогичных конфигураций на основе других интерфейсов;

взаимодействие устаревшей аппаратуры с новейшими СХД;

позволяет настроить полноценную работу совместно с NAS;

совместное хранение данных всех СХД легко реализуется с помощью SAN .

С ростом информационного обмена, особенно внутри серьезных объединений, колоссально возросли нагрузки на сетевой сегмент и файловые хранилища, соответственно, потребовалась возможность ускорить доступ к накопителям на сетевом уровне. В противном случае объемные консолидации сотрудников не смогли бы полноценно взаимодействовать, что плохо сказалось бы на результативности.

Сегменты серверов SAN можно условно разделить на «острова». Каждый такой «островок» может отвечать за собственный блок памяти. Storage Area Network предназначен для объединения сегментов, в качестве локальных. Эффективность этого метода в том, что локальные права доступа позволяют реализовать гораздо больше возможностей, чем сетевые. Конечно, это, в первую очередь, недостаток современного программного обеспечения, но с помощью серверов SAN его можно нивелировать.

Сеть хранения данных, или Storage Area Network — это система, состоящая из собственно устройств хранения данных — дисковых, или RAID — массивов, ленточных библиотек и прочего, среды передачи данных и подключенных к ней серверов. Обычно используется достаточно крупными компаниями, имеющими развитую IT инфраструктуру, для надежного хранения данных и скоростного доступа к ним.
Упрощенно, СХД — это система, позволяющая раздавать серверам надежные быстрые диски изменяемой емкости с разных устройств хранения данных.

Немного теории.
Сервер к хранилищу данных можно подключить несколькими способами.
Первый и самый простой — DAS, Direct Attached Storage (прямое подключение), без затей ставим диски в сервер, или массив в адаптер сервера — и получаем много гигабайт дискового пространства со сравнительно быстрым доступом, и при использовании RAID-массива — достаточную надежность, хотя копья на тему надежности ломают уже давно.
Однако такое использование дискового пространства не оптимально — на одном сервере место кончается, на другом его еще много. Решение этой проблемы — NAS, Network Attached Storage (хранилище, подключенное по сети). Однако при всех преимуществах этого решения — гибкости и централизованного управления — есть один существенный недостаток — скорость доступа, еще не во всех организациях внедрена сеть 10 гигабит. И мы подходим к сети хранения данных.

Главное отличие SAN от NAS (помимо порядка букв в аббревиатурах) — это то, каким образом видятся подключаемые ресурсы на сервере. Если в NAS ресурсы подключаются протоколам NFS или SMB, в SAN мы получаем подключение к диску, с которым можем работать на уровне операций блочного ввода-вывода, что гораздо быстрее сетевого подключения (плюс контроллер массива с большим кэшем добавляет скорости на многих операциях).

Используя SAN, мы сочетаем преимущества DAS — скорость и простоту, и NAS — гибкость и управляемость. Плюс получаем возможность масштабирования систем хранения до тех пор, пока хватает денег, параллельно убивая одним выстрелом еще несколько зайцев, которых сразу не видно:

* снимаем ограничения на дальность подключения SCSI-устройств, которые обычно ограничены проводом в 12 метров,
* уменьшаем время резервного копирования,
* можем грузиться с SAN,
* в случае отказа от NAS разгружаем сеть,
* получаем большую скорость ввода-вывода за счет оптимизации на стороне системы хранения,
* получаем возможность подключать несколько серверов к одному ресурсу, это нам дает следующих двух зайцев:
— на полную используем возможности VMWare — например VMotion (миграцию виртуальной машины между физическими) и иже с ними,
— можем строить отказоустойчивые кластеры и организовывать территориально распределенные сети.

Что это дает?
Помимо освоения бюджета оптимизации системы хранения данных, мы получаем, вдобавок к тому что я написал выше:

* увеличение производительности, балансировку нагрузки и высокую доступность систем хранения за счет нескольких путей доступа к массивам;
* экономию на дисках за счет оптимизации расположения информации;
* ускоренное восстановление после сбоев — можно создать временные ресурсы, развернуть на них backup и подключить к ним сервера, а самим без спешки восстанавливать информацию, или перекинуть ресурсы на другие сервера и спокойно разбираться с умершим железом;
* уменьшение время резервного копирования — благодаря высокой скорости передачи можно бэкапиться на ленточную библиотеку быстрее, или вообще сделать snapshot (мгновенный снимок) с файловой системы и спокойно архивировать его;
* дисковое место по требованию — когда нам нужно — всегда можно добавить пару полок в систему хранения данных.
* уменьшаем стоимость хранения мегабайта информации — естественно, есть определенный порог, с которого эти системы рентабельны.
* надежное место для хранения mission critical и business critical данных (без которых организация не может существовать и нормально работать).
* отдельно хочу упомянуть VMWare — полностью все фишки вроде миграции виртуальных машин с сервера на сервер и прочих вкусностей доступны только на SAN.

Читайте также:  Электрочайник из нержавеющей стали рейтинг

Из чего это состоит?
Как я писал выше — СХД состоит из устройств хранения, среды передачи и подключенных серверов. Рассмотрим по порядку:

Системы хранения данных обычно состоят из жестких дисков и контроллеров, в уважающей себя системе как правило всего по 2 — по 2 контроллера, по 2 пути к каждому диску, по 2 интерфейса, по 2 блока питания, по 2 администратора. Из наиболее уважаемых производителей систем следует упомянуть HP, IBM, EMC и Hitachi. Тут процитирую одного представителя EMC на семинаре — «Компания HP делает отличные принтеры. Вот пусть она их и делает!» Подозреваю, что в HP тоже очень любят EMC. Конкуренция между производителями нешуточная, впрочем, как и везде. Последствия конкуренции — иногда вменяемые цены за мегабайт системы хранения и проблемы с совместимостью и поддержкой стандартов конкурентов, особенно у старого оборудования.

Среда передачи данных.

Обычно SAN строят на оптике, это дает на текущий момент скорость в 4, местами в 8 гигабит на канал. При построении раньше использовались специализированные хабы, сейчас больше свитчи, в основном от Qlogic, Brocade, McData и Cisco (последние два на площадках не видел ни разу). Кабели используются традиционные для оптических сетей — одномодовые и многомодовые, одномодовые более дальнобойные.
Внутри используется FCP — Fibre Channel Protocol, транспортный протокол. Как правило внутри него бегает классический SCSI, а FCP обеспечивает адресацию и доставку. Есть вариант с подключением по обычной сети и iSCSI, но он обычно использует (и сильно грузит) локальную, а не выделенную под передачу данных сеть, и требует адаптеров с поддержкой iSCSI, ну и скорость помедленнее, чем по оптике.

Есть еще умное слово топология, которое встречается во всех учебниках по SAN. Топологий несколько, простейший вариант — точка-точка (point to point), соединяем между собой 2 системы. Это не DAS, а сферический конь в вакууме простейший вариант SAN. Дальше идет управляемая петля (FC-AL), она работает по принципу «передай дальше» — передатчик каждого устройства соединен с приемником последующего, устройства замкнуты в кольцо. Длинные цепочки имеют свойство долго инициализироваться.

Ну и заключительный вариант — коммутируемая структура (Fabric), она создается с помощью свитчей. Структура подключений строится в зависимости от количества подключаемых портов, как и при построении локальной сети. Основной принцип построения — все пути и связи дублируются. Это значит, что до каждого устройства в сети есть минимум 2 разных пути. Здесь тоже употребимо слово топология, в смысле организации схемы подключений устройств и соединения свитчей. При этом как правило свитчи настраиваются так, что сервера не видят ничего, кроме предназначенных им ресурсов. Это достигается за счет создания виртуальных сетей и называется зонированием, ближайшая аналогия — VLAN. Каждому устройству в сети присваивается аналог MAC-адреса в сети Ethernet, он называется WWN — World Wide Name. Он присваивается каждому интерфейсу и каждому ресурсу (LUN) систем хранения данных. Массивы и свитчи умеют разграничивать доступ по WWN для серверов.

Сервера подключают к СХД через HBA — Host Bus Adapter-ы. По аналогии с сетевыми картами существуют одно-, двух-, четырехпортовые адаптеры. Лучшие "собаководы" рекомендуют ставить по 2 адаптера на сервер, это позволяет как осуществлять балансировку нагрузки, так и обеспечивает надежность.

А дальше на системах хранения нарезаются ресурсы, они же диски (LUN) для каждого сервера и оставляется место в запас, все включается, установщики системы прописывают топологию, ловят глюки в настройке свитчей и доступа, все запускается и все живут долго и счастливо*.
Я специально не касаюсь разных типов портов в оптической сети, кому надо — тот и так знает или прочитает, кому не надо — только голову забивать. Но как обычно, при неверно установленном типе порта ничего работать не будет.

Из опыта.
Обычно при создании SAN заказывают массивы с несколькими типами дисков: FC для скоростных приложений, и SATA или SAS для не очень быстрых. Таким образом получаются 2 дисковые группы с различной стоимостью мегабайта — дорогая и быстрая, и медленная и печальная дешевая. На быструю вешаются обычно все базы данных и прочие приложения с активным и быстрым вводом-выводом, на медленную — файловые ресурсы и все остальное.

Читайте также:  Note acceptance сбербанк что это

Если SAN создается с нуля — имеет смысл строить ее на основе решений от одного производителя. Дело в том, что, несмотря на заявленное соответствие стандартам, существуют подводные грабли проблемы совместимости оборудования, и не факт, что часть оборудования будет работать друг с другом без плясок с бубном и консультаций с производителями. Обычно для утряски таких проблем проще позвать интегратора и дать ему денег, чем общаться с переводящими друг на друга стрелки производителями.

Если SAN создается на базе существующей инфраструктуры — все может быть сложно, особенно если есть старые SCSI массивы и зоопарк старой техники от разных производителей. В этом случае имеет смысл звать на помощь страшного зверя интегратора, который будет распутывать проблемы совместимости и наживать третью виллу на Канарах.

Часто при создании СХД фирмы не заказывают поддержку системы производителем. Обычно это оправдано, если у фирмы есть штат грамотных компетентных админов (которые уже 100 раз назвали меня чайником) и изрядный капитал, позволяющий закупить запасные комплектующие в потребных количествах. Однако компетентных админов обычно переманивают интеграторы (сам видел), а денег на закупку не выделяют, и после сбоев начинается цирк с криками «Всех уволю!» вместо звонка в саппорт и приезда инженера с запасной деталью.

Поддержка обычно сводится к замене умерших дисков и контроллеров, ну и к добавлению в систему полок с дисками и новых серверов. Много хлопот бывает после внезапной профилактики системы силами местных специалистов, особенно после полного останова и разборки-сборки системы (и такое бывает).

Про VMWare. Насколько я знаю (спецы по виртуализации поправьте меня), только у VMWare и Hyper-V есть функционал, позволяющий «на лету» перекидывать виртуальные машины между физическими серверами. И для его реализации требуется, чтобы все сервера, между которыми перемещается виртуальная машина, были подсоединены к одному диску.

Про кластеры. Аналогично случаю с VMWare, известные мне системы построения отказоустойчивых кластеров (Sun Cluster, Veritas Cluster Server) — требуют подключенного ко всем системам хранилища.

Пока писал статью — у меня спросили — в какие RAIDы обычно объединяют диски?
В моей практике обычно делали или по RAID 1+0 на каждую дисковую полку с FC дисками, оставляя 1 запасной диск (Hot Spare) и нарезали из этого куска LUN-ы под задачи, или делали RAID5 из медленных дисков, опять же оставляя 1 диск на замену. Но тут вопрос сложный, и обычно способ организации дисков в массиве выбирается под каждую ситуацию и обосновывается. Та же EMC например идет еще дальше, и у них есть дополнительная настройка массива под приложения, работающие с ним (например под OLTP, OLAP). С остальными вендорами я так глубоко не копал, но догадываюсь, что тонкая настройка есть у каждого.

* до первого серьезного сбоя, после него обычно покупается поддержка у производителя или поставщика системы.

Технология RAID

RAID (Redundant Array of Independent Disks) — избыточный массив независимых дисков.

Хранение избыточной информации (контрольной суммы) позволяет восстанавливать потерянные данные.

RAID-массив может быть реализован двумя способами: программным (с ограничениями) и аппаратным. В первом случае RAID-массивом управляет специальная программа на хосте, во втором — внешний аппаратный контроллер, который может находиться на хосте или на самом RAID-массиве.

Методы RAID

Чередование

Метод чередования повышает производительность (скорость операций чтения и записи данных).

Большой блок данных разбивается на маленькие кусочки, которые одновременно пишутся на несколько дисков (информация распределяется по нескольким дискам).

При выходе из строя одного из дисков информацию уже нельзя восстановить.

Зеркалирование

Метод зеркалирования обеспечивает защиту информации (отказоустойчивость): две копии данных хранятся на двух разных дисках (дублирование). При выходе из строя одного из дисков на втором остаётся его полная копия.

При зеркалировании скорость чтения увеличивается (так как разные данные могут считываться одновременно с двух дисков), но скорость записи уменьшается (так как одни и те же данные записываются на два диска).

Контроль чётности

Метод контроля чётности обеспечивает высокую производительность метода чередования и более дешёвую (чем метод зеркалирования) защиту информации.

Информация распределяется по нескольким дискам (1, 2, 3, 4), а на диск 5 записывается контрольная сумма.

Диск 1 Диск 2 Диск 3 Диск 4 Диск с контрольной суммой
1 2 1 3 1+2+1+3=7
3 1 2 3 3+1+2+2=8
3 1 1 4 3+1+1+4=9

При выходе из строя одного из дисков информация на нём может быть восстановлена (нужно вычесть из контрольной суммы сумму данных на оставшихся дисках).

Читайте также:  Компьютер в машину своими руками

Например, вышел из строя диск 3:

Диск 1 Диск 2 Диск 3 Диск 4 Диск с контрольной суммой
1 2 7-1-1-3=2 3 7
3 1 8-3-2-2=1 3 8
3 1 9-3-1-4=1 4 9

Для защиты информации методом зеркалирования нам понадобилось 100% дополнительного дискового пространства, а методом контрольной суммы — только 25%.

Метод контрольной суммы работает медленнее, чем метод чередования, так как требуется дополнительное время на расчёт контрольной суммы.

RAID-уровни

В зависимости от требований приложения к производительности, доступности данных (отказоустойчивости) и стоимости хранения выбирается соответствующий RAID-уровень.

Уровень Описание Мин. кол-во дисков
RAID 0 Метод чередования (не обеспечивает отказоустойчивости) 2
RAID 1 Метод зеркалирования 2
RAID 01 Чередование на зеркалированные наборы дисков 4
RAID 10 Зеркалирование на чередующиеся наборы дисков 4
RAID 3 Контрольная сумма хранится на выделенном диске 3
RAID 4 3
RAID 5 Контрольная сумма распределяется по всем дискам 3
RAID 6 Две контрольные суммы распределяются по всем дискам. Устойчив к отказу 2-х дисков. 4

Горячее резервирование

При горячем резервировании выполняется (автоматически или по команде администратора) операция восстановления данных отказавшего диска на резервном носителе.

При замене отказавшего диска информация автоматически копируется с резервного носителя на новый диск.

Интеллектуальные системы хранения данных

В обычной системе хранения данных хост обращается напрямую к физическим дискам (RAID-массиву).

В интеллектуальной системе хранения данных хост обращается сначала к кэш-памяти контроллера хранилища.

Кэш-память представляет собой оперативную память, поэтому операции чтения данных из кэш-памяти и записи данных в кэш-память происходят быстрее, чем при работе непосредственно с дисками.

Контроллер хранилища должен так управлять кэш-памятью, чтобы максимизировать производительность системы хранения данных (своевременно заполнять кэш-память наиболее востребованными данными и освобождать её от невостребованных данных).

Для защиты энергозависимой кэш-памяти от сбоев сетевого питания используют питание от батареи, а для защиты от аппаратных сбоев — зеркалирование кэш-памяти.

Сети хранения данных

SAN – Storage Area Network – сеть хранения данных (СХД).

SAN-устройство — это совместно используемое внешнее хранилище данных, которое подключается к хостам по высокоскоростной выделенной сети.

SAN – система централизованного хранения данных.
SAN предоставляет хостам доступ к данным на блочном уровне.

LUN — Logical Unit Number — виртуальный диск в сети хранения данных.
LUN представляется хосту как физический локальный диск.

Виртуализация хранилища на уровне блоков

В виртуализованной SAN-среде хосты обращаются не к LUN-устройствам, а к виртуальным томам. Виртуальные тома могут создаваться из пула LUN-устройств разных физических хранилищ.

Размер виртуального тома может быть увеличен незаметно для хоста. Данные могут переноситься между LUN-устройствами незаметно для пользователя.

Сетевые протоколы SAN

  • Fibre Channel (FC SAN)
  • IP SAN
  • iSCSI — Internet SCSI
  • FCIP — Fibre Channel over IP
  • FCoE — Fibre Channel over Ethernet.

Сетевые системы хранения данных

NAS – Network Attached Storage – сетевое хранилище.

NAS-устройство — это компьютер (со специализированной операционной системой и RAID-массивом), который предоставляет пользователям совместный доступ к файлам по сети Ethernet.

Один клиент может одновременно подключиться к нескольким NAS-устойствам, а одно NAS-устройство может одновременно обслуживать несколько клиентов.

NAS — это система централизованного хранения данных.

Примеры способов совместного доступа к файлам:

  • DFS — раcпределённая между несколькими хостами файловая система
  • DNS — система доменных имён
  • FTP/SFTP — протокол передачи файлов
  • Peer-to-peer — файлообменная пиринговая сеть.

Файловые протоколы NAS

  • CIFS — Common Internet File System (Windows)
  • NFS — Network File System (Unix).

Виртуализация на уровне файлов

Виртуализация на уровне файлов в NAS-среде позволяет перемещать файлы между NAS-устройствами незаметно для пользователей. Файлы не привязаны к конкретным устройствам — пользователи обращаются к ним по логическим адресам, а не физическим. Глобальное пространство имён отображает логические адреса на физические.

Объектно-ориентированные хранилища данных

OSD — Object Storage Device.

OSD-устройства служат для хранения неструктурированных файловых данных (фильмов, документов и т.п.), адресуемых не по имени файла и пути хранения, а по уникальному идентификатору контента.

Объект содержит пользовательские данные и метаданные (сведения о владельце, правила доступа, срок хранения объекта и т.п.).

Контентно-адресуемые хранилища

CAS – Content Addressed Storage – контентно-адресуемые хранилища.

Данные в CAS адресуются по контрольной сумме (хеш-сумма).
Хеш-сумма является уникальным идентификатором содержимого пользовательских данных — контентным адресом.

CAS используются для долговременного хранения неизменных данных и быстрого извлечения их по требованию.

Примеры объектов хранения в CAS: медицинские карточки и финансовые записи.
CAS гарантирует неизменность и подлинность данных.

Прикладные протоколы CAS

  • REST — Representational State Transfer
  • SOAP — Simple Object Access Protocol
  • API — Application Programming Interface.

Унифицированные OSD-устройства

Унифицированные OSD-устройства одновременно являются NAS-, SAN- и OSD-устройствами: предоставляют NAS-клиентам совместный доступ к файлам, серверам приложений — доступ к данным хранилища на блочном уровне, серверам веб-приложений — доступ к объектам.

Ссылка на основную публикацию
Сетевой город 71 щекино школа 12
Запрошенная Вами страница не найдена. Возможно, Вы перешли по устаревшей ссылке или неверно ввели адрес. 2019 Электронное образование Министерство по...
Самый лучший музыкальный центр по звуку
На первый взгляд, сегодня мало кому в голову придет купить музыкальный центр себе домой, когда прослушивать музыку можно, просто подключив...
Самый лучший плеер для виндовс 7
Чтобы просмотр фильмов или прослушивание музыки за компьютером было действительно комфортным, необходимо скачать по-настоящему качественный проигрыватель. Ниже представлена подборка из...
Сетевой драйвер для ноутбука асер
Драйвера для ноутбуков и нетбуков Acer Поддерживаемые операционные системы: Windows 7 Для начала загрузки данного файла, найдите под пунктом номер...
Adblock detector