ПредишенСледващото

Препоръки за конфигуриране на съхранение на Fibre Channel, NFS и ISCSI, използван за VMware ESX сървъри / ESXi виртуални машини.

За тези, които едва наскоро са започнали да търсят виртуализация на VMware Virtual платформа инфраструктура, един от най-първия въпрос - какъв вид система за съхранение, за да използвате, и какви възможности ще бъдат достъпни за него.

Фигурата по-долу показва съвместимостта на различните функции на VMware ESX сървъри с видовете системи за съхранение.

А протоколи линка по-долу се сравнява ефективността на Fibre Channel, ISCSI и NAS / NFS за VMware ESX сървъри:

Тук четем за ограниченията на съхранение в ESX сървъри:

Сега "/>

Плюсове: гарантирана скорост, висока производителност, за подпомагане на всички възможности на VMware (включително MSCS клъстер в виртуални машини).

Недостатъци: високата цена на съхранение и SAN плат.

Плюсове: сравнително ниска цена, добра работа и възможност да стартирате от ISCSI SAN.

Недостатъци: не гарантирана скорост, има всички недостатъци на IP-базирани мрежи.

Плюсове: много ниска цена (могат да бъдат изпълнени на Linux или Windows сървър), а ние получаваме напълно функционален цялостната система за съхранение с НА и DRS функции.

Недостатъци: ниска производителност, допълнителни домакин на CPU ESX и съхранение на сървъра.

Плюсове: ниска цена, без допълнителни връзки - обеми VMFS, добро изпълнение.

Недостатъци: Отново, IP-базирана мрежа, няма подкрепа за мезенхимни стволови клетки, не можете да заредите ESX от сан, натоварването на процесора.

Плюсове: евтини (местни дискове на ESX), не изисква допълнителна инвестиция, добро представяне.

Недостатъци: не работи VMware HA, DRS + DPM, VMotion, VCB.

Ключови най-добри практики за всички видове системи за съхранение

  • Представете обеми LUN за всички сървъри ESX сървъри със същата LUN ID. В противен случай, Вашите VMFS обем снимки могат да станат и да не са налице.
  • Изберете подходящата единица за размер на обема на VMFS. Това е описано тук.
  • Придържайте се към правилата на "1 LUN на 1 VMFS том»
  • Използвайте униформа именуване конвенции VMFS обем, създавате, ако е възможно, LUN със същия размер. Оптималният размер на LUN - 250 GB 2 TB.
  • Да не се използва "разширения» (Extents) до обеми VMFS.
  • Дръжте ISO-изображения на съхранение на ниска цена, като например NFS, и да го монтирате в режим само за четене за ESX.
  • Използвайте RDM-дискове с грижи. Най-големите предимства, които те предоставят в представянето си. Използвайте ги само, когато се изисква тяхната функционалност (например, мезенхимни стволови клетки клъстери).
  • Задръжте 30% обем VMFS безплатно. Това ще намали риска от необходимостта за нейното разширяване, за да създадете снимки и други непредвидени обстоятелства.
  • Не поставяйте повече от 30 виртуални машини на същата VMFS-обем. LUN да започнете да изпитвате проблеми с производителността. Добри консултанти препоръчват от 5 до 15 виртуални машини на LUN.
  • VMkernel програмата забие магазин на местно ниво. Когато ESX изключен от сан, не можете да разберете какво се случва.
  • Имате по-малко "моментни снимки" на виртуални машини и по-добре не го правят. По-добре е да използвате софтуера за архивиране.
  • За гост OS Virtual Machine Disk TimeOutValue излагайте параметър е настроен на 60 секунди, за да се даде време за SCSI-устройства, както и механизма за избор на път за придобиване на стабилно състояние по време на физически проблеми в компонентите на мрежата за съхранение. За да направите това в ключ на системния регистър на Windows трябва да е в «HKEY_LOCAL_MACHINE \ System \ CurrentControlSet \ Services \ диска \ TimeOutValue» за задаване на стойност на 60.
  • Уверете се, че дължината на опашката (Queue Размер) в драйверите за гости за BusLogic и LSI Logic отговаря на стойност не по-малко от 30.

Практики за различни видове общи системи за съхранение на VM

  • Зониране SAN фабрика, така че всеки HBA-адаптер работи последователно ESX сървъри в отделна зона. В този случай, всички ESX домакини трябва да видите всички LUN с виртуални машини за правилното функциониране на ХК и VMotion.
  • Уверете се, че достъп до същата LUN за масиви конфигурирани като "активно-пасивни», организирана от активното контролера от всички хостове. В противен случай, тя може да бъде Path мята явление.
  • За ESX сървъри домакини коригират вида зониране на "трудно зониране" (с номер на порт). тип зониране "меко зониране" (брой WWN) - не се използват.
  • В определянето на вида приемни за системата за съхранение съдържа правилния тип на домакина - «VMware» (ако има такива). Ако не е, използвайте препоръка на производителя.
  • Разположен на политиката пътеки като фиксирани системи за съхранение, контролери са конфигурирани като «активна-активна» и MRU (последно използваните) за контролери за съхранение «активно-пасивни». Да не се използва за балансиране на политиката в пътищата на Round Robin, тъй като тя не се поддържа в производствена среда.
  • Когато проблеми с производителността, може би има смисъл да се увеличи дълбочината на опашка HBA-адаптер. За да направите това, /etc/esx.conf файл, намерете на линията, като /device/002:02.0/options = "ql2xmaxqdepth =" за най HBA и добавете след последният е стойността на Queue Depth. Стойността по подразбиране е 32. Стойността се определя в съответствие с формулата:
Подкрепете проекта - споделете линка, благодаря!