Препоръки за конфигуриране на съхранение на Fibre Channel, NFS и ISCSI, използван за VMware ESX сървъри / ESXi виртуални машини.
За тези, които едва наскоро са започнали да търсят виртуализация на VMware Virtual платформа инфраструктура, един от най-първия въпрос - какъв вид система за съхранение, за да използвате, и какви възможности ще бъдат достъпни за него.
Фигурата по-долу показва съвместимостта на различните функции на VMware ESX сървъри с видовете системи за съхранение.
А протоколи линка по-долу се сравнява ефективността на Fibre Channel, ISCSI и NAS / NFS за VMware ESX сървъри:
Тук четем за ограниченията на съхранение в ESX сървъри:
Сега "/>
Плюсове: гарантирана скорост, висока производителност, за подпомагане на всички възможности на VMware (включително MSCS клъстер в виртуални машини).
Недостатъци: високата цена на съхранение и SAN плат.
Плюсове: сравнително ниска цена, добра работа и възможност да стартирате от ISCSI SAN.
Недостатъци: не гарантирана скорост, има всички недостатъци на IP-базирани мрежи.
Плюсове: много ниска цена (могат да бъдат изпълнени на Linux или Windows сървър), а ние получаваме напълно функционален цялостната система за съхранение с НА и DRS функции.
Недостатъци: ниска производителност, допълнителни домакин на CPU ESX и съхранение на сървъра.
Плюсове: ниска цена, без допълнителни връзки - обеми VMFS, добро изпълнение.
Недостатъци: Отново, IP-базирана мрежа, няма подкрепа за мезенхимни стволови клетки, не можете да заредите ESX от сан, натоварването на процесора.
Плюсове: евтини (местни дискове на ESX), не изисква допълнителна инвестиция, добро представяне.
Недостатъци: не работи VMware HA, DRS + DPM, VMotion, VCB.
Ключови най-добри практики за всички видове системи за съхранение
- Представете обеми LUN за всички сървъри ESX сървъри със същата LUN ID. В противен случай, Вашите VMFS обем снимки могат да станат и да не са налице.
- Изберете подходящата единица за размер на обема на VMFS. Това е описано тук.
- Придържайте се към правилата на "1 LUN на 1 VMFS том»
- Използвайте униформа именуване конвенции VMFS обем, създавате, ако е възможно, LUN със същия размер. Оптималният размер на LUN - 250 GB 2 TB.
- Да не се използва "разширения» (Extents) до обеми VMFS.
- Дръжте ISO-изображения на съхранение на ниска цена, като например NFS, и да го монтирате в режим само за четене за ESX.
- Използвайте RDM-дискове с грижи. Най-големите предимства, които те предоставят в представянето си. Използвайте ги само, когато се изисква тяхната функционалност (например, мезенхимни стволови клетки клъстери).
- Задръжте 30% обем VMFS безплатно. Това ще намали риска от необходимостта за нейното разширяване, за да създадете снимки и други непредвидени обстоятелства.
- Не поставяйте повече от 30 виртуални машини на същата VMFS-обем. LUN да започнете да изпитвате проблеми с производителността. Добри консултанти препоръчват от 5 до 15 виртуални машини на LUN.
- VMkernel програмата забие магазин на местно ниво. Когато ESX изключен от сан, не можете да разберете какво се случва.
- Имате по-малко "моментни снимки" на виртуални машини и по-добре не го правят. По-добре е да използвате софтуера за архивиране.
- За гост OS Virtual Machine Disk TimeOutValue излагайте параметър е настроен на 60 секунди, за да се даде време за SCSI-устройства, както и механизма за избор на път за придобиване на стабилно състояние по време на физически проблеми в компонентите на мрежата за съхранение. За да направите това в ключ на системния регистър на Windows трябва да е в «HKEY_LOCAL_MACHINE \ System \ CurrentControlSet \ Services \ диска \ TimeOutValue» за задаване на стойност на 60.
- Уверете се, че дължината на опашката (Queue Размер) в драйверите за гости за BusLogic и LSI Logic отговаря на стойност не по-малко от 30.
Практики за различни видове общи системи за съхранение на VM
- Зониране SAN фабрика, така че всеки HBA-адаптер работи последователно ESX сървъри в отделна зона. В този случай, всички ESX домакини трябва да видите всички LUN с виртуални машини за правилното функциониране на ХК и VMotion.
- Уверете се, че достъп до същата LUN за масиви конфигурирани като "активно-пасивни», организирана от активното контролера от всички хостове. В противен случай, тя може да бъде Path мята явление.
- За ESX сървъри домакини коригират вида зониране на "трудно зониране" (с номер на порт). тип зониране "меко зониране" (брой WWN) - не се използват.
- В определянето на вида приемни за системата за съхранение съдържа правилния тип на домакина - «VMware» (ако има такива). Ако не е, използвайте препоръка на производителя.
- Разположен на политиката пътеки като фиксирани системи за съхранение, контролери са конфигурирани като «активна-активна» и MRU (последно използваните) за контролери за съхранение «активно-пасивни». Да не се използва за балансиране на политиката в пътищата на Round Robin, тъй като тя не се поддържа в производствена среда.
- Когато проблеми с производителността, може би има смисъл да се увеличи дълбочината на опашка HBA-адаптер. За да направите това, /etc/esx.conf файл, намерете на линията, като /device/002:02.0/options = "ql2xmaxqdepth =" за най HBA и добавете след последният е стойността на Queue Depth. Стойността по подразбиране е 32. Стойността се определя в съответствие с формулата: