По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Проблемы с производительностью виртуальной машины на ESX/ESXi могут быть вызваны по различным причинам, например, ограничения в работе CPU, излишний объём памяти, задержкой в работе хранилищ или сети. Если одна или более из ваших виртуальных машин показывает высокое время ответа, то проверьте каждую из возможных причин, чтобы выявить слабое место системы. Неисправности Сервисы на гостевых виртуальных машинах работают медленно Приложения на гостевых виртуальных машинах отвечают с задержкой Гостевая виртуальная машина работает медленно или не отвечает Решение Каждый нижестоящий шаг содержит инструкции и ссылки на соответствующие документы. Шаги выстроены в наиболее удобном порядке для выявления и решения проблемы. Такая последовательность также обеспечивает наименьшую потерю данных. Замечание: после завершения каждого шага отмечайте сохраниться ли проблема с производительностью. Не пропускайте шаги и выполняйте их в указанном порядке. Статья включает в себя 4 основных части: Ограничения в работе CPU Излишний объём памяти Задержка в работе хранилища Сетевые задержки Ограничения в работе CPU Чтобы определить являются ли ограничения в работе CPU причиной низкой производительности: Введите команду esxtop, чтобы проверить перегружен ли ESXi/ESX server. Изучите load average в первой строке вывода команд. Средняя загрузка на уровне 1.00 означает, что физические процессоры (CPUs) машины с ESXi/ESX Server используются полностью, средняя загрузка 0.5 означает использование лишь половины ресурсов. Средняя загрузка на уровне 2.00 означает, что система перегружена. Изучите поле %READY, чтобы узнать долю времени, в течении которого виртуальная машина была готова, но не могла быть запланирована для запуска на физическом процессоре. При нормальных условиях эксплуатации это значение должно оставаться в пределах 5%. Если время готовности на виртуальных машинах с низкой производительностью слишком высокое, то необходимо проверить ограничения в работе процессора - убедитесь, что виртуальная машина не ограничена установленным лимитом процессора; Проверьте не ограничена ли виртуальная машина доступным объёмом ресурсов. Если средняя загрузка слишком высока и время, в течении которого машина готова к работе, не зависит от ограничений в работе процессора, то следует отрегулировать загрузку CPU хостa. Чтобы отрегулировать загрузку CPU хоста нужно: Увеличить количество физических CPU хоста Или уменьшить количество выделенных хосту виртуальных CPU. Чтобы уменьшить количество выделенных хосту виртуальных CPU нужно уменьшить общее количество CPU, выделенных всем запущенным виртуальным машинам на ESX хосте. Или уменьшить количество запущенных виртуальных машин Если Вы используете ESX 3.5, проверьте является ли проблемой совместное использование IRQ. Перегрузка памяти Чтобы определить является ли причиной низкой производительности перегрузка памяти необходимо: Ввести команду esxtop и установить перегружена ли память ESXi/ESX server. Изучите MEM overcommit avg в первой строке вывода команд. Это значение отражает соотношение требуемого объёма памяти к объёму доступной памяти, минус 1. Пример Если виртуальной машине требуется 4 ГБ ОЗУ и хост имеет 4 ГБ ОЗУ, то соотношение равно 1:1. После вычитания 1 (из 1:1) поле MEM overcommit avg выдаст значение 0. Память не перегружена и нет необходимости в дополнительном объёме. Если виртуальной машине требуется 6 ГБ ОЗУ и хост имеет 4 ГБ ОЗУ, то соотношение равно 1.5:1. После вычитания 1 (из 1:1) поле MEM overcommit avg выдаст значение 0. Память перегружена на 50% и необходимо на 50% больше ОЗУ, чем доступно. Если память перегружена, то следует отрегулировать количество памяти хоста. Для этого необходимо: Увеличить количество физической ОЗУ хоста Или уменьшить количество памяти, выделяемое виртуальным машинам. Для уменьшения объёма выделенной ОЗУ нужно уменьшить общее количество ОЗУ, выделенной всем виртуальным машинам хоста Или уменьшить общее количество виртуальных машин хоста. Определить состояние виртуальных машин: ballooning или swapping Для определения состояния: Запустите esxtop Введите m для памяти Введите f для полей Выберите букву J для Memory Ballooning Statistics (MCTL) Посмотрите на значение MCTLSZ. MCTLSZ (MB) отображает количество физической памяти гостя, переданной balloon driver. Введите f для поля Выберите букву для Memory Swap Statistics (SWAP STATS) Посмотрите на значение SWCUR. SWCUR (MB) отражает текущую загрузку свопа Для решения этой проблемы убедитесь, что ballooning или swapping не вызваны неправильно заданным объёмом памяти. Если объём памяти задан неверно, то его следует переназначить Задержки в работе хранилища Чтобы определить являются ли задержки в работе хранилища причиной низкой производительности: Проверьте связаны ли проблемы с локальным хранилищем. Перенесите виртуальные машины в другое хранилище. Уменьшите количество виртуальных машин на LUN. Поищите похожие записи на Windows гостей: The device, DeviceScsiPort0, did not respond within the timeout period Используя esxtop найдите высокое время задержки DAVG. Определите максимальную пропускную способность ввода/вывода с помощью команды iometer. Сравните результаты iometer, полученные на VM, с результатами физической машины с этим же хранилищем. Проверьте наличие конфликтов с резервированием SCSI. Если вы используете iSCSI хранилище и Jumbo фреймы, то следует проверить правильность конфигурации. При использовании iSCSI хранилища и многоканального iSCSI Software Initiator убедитесь, что всё правильно сконфигурировано. Если вы обнаружили проблемы, связанные с хранилищем: Убедитесь в том, что ваша аппаратура и HBA карты сертифицированы для работы с ESX/ESXi. Проверьте обновления вашего физического сервера. Проверьте обновления прошивки вашего HBA. ESX верно определяет режим и политику пути для вашего SATP Storage вашего типа и PSP Path Selection. Сетвые задержки Производительность сети тесно связана с производительностью CPU. Поэтому сначала необходимо проверить работу CPU и после этого переходить к поиску проблем в сети. Для определения проблем с производительностью сети: Проверьте максимальную пропускную способность от виртуальной машины с помощью Iperf. Замечание: VMware не поддерживает и не рекомендует какую-либо конкретную стороннюю программу. Во время использования Iperf измените размер окна TCP до 64 K. Это также влияет на производительность. Для изменения размера окна TCP: На стороне сервера введите: iperf -s На стороне клиента введите: iperf.exe -c sqlsed -P 1 -i 1 -p 5001 -w 64K -f m -t 10 900M Запустите Iperf на машине вне хоста ESXi/ESX. Сравните полученные результаты с ожидаемыми результатами, с учётом физической среды. Запустите Iperf на другой машине вне хоста ESXi/ESX, VLAN и физический свитч должны оставаться прежними. Если производительность в порядке, а проблема появляется только на машине, расположенной в другом месте, то проблему нужно искать в вашей сетевой среде. Запустите Iperf между двумя виртуальными машинами на общем сервере/portgroup/vswitch. Если результат положительный, то можно исключить проблемы с памятью, CPU и хранилищем. Если вы обнаружили «бутылочное горлышко» вашей сети, то: Если вы используете iSCSI хранилище и Jumbo фреймы, то следует проверить правильность конфигурации. Если вы используете Network I/O Control, то необходимо проверить правильность конфигурации общих ресурсов и ограничений для вашего траффика. Убедитесь в правильности работы трафик шейпинга.
img
Крупные компании, такие как Cisco, Juniper, Arista и HP, давно конкурируют на рынке высокоскоростных корпоративных сетей для дата-центров. Данные сети предназначены для обработки трафика, генерируемого высокоинтеллектуальными приложениями, устройствами Интернета вещей (IoT) и видео. Высокоскоростные сети Высокоскоростными сетями Ethernet уже никого не удивить, поскольку мощность серверов центров обработки данных увеличивается многократно ежегодно. Это связано с тем, что сейчас необходимо иметь оборудование, которое способно обрабатывать тонны трафика от новых, более интеллектуальных приложений, устройств Интернета вещей, видео и т.д. Потребность в большой скорости передачи данных от дата-центров обусловлена многими факторами – быстрым и большим темпом роста гипермасштабируемых сетей от таких игроков, как Google, Amazon, Яндекс, Facebook, а также ценой/производительностью сетей, приложений, работающих на скоростях 100G. За рубежом провели исследование, объясняющее то, почему требуются высокоскоростные сети. Исследователи, а именно компания PwC, выяснили, что рабочие нагрузки становятся менее монолитными, поскольку компании отходят от традиционного корпоративного центра обработки данных. Они становятся более распределенными, более мобильными и больше похожи на рабочие нагрузки, обычно связанные с гипермасштабируемыми средами. Почти все основные рабочие нагрузки будут переходить из локального в публичное хранилище (облако) в ближайшие три года. Приложения будут более зависимы от сети, и сеть станет более уязвимой, учитывая распределение/динамичность рабочих нагрузок. В связи с этим возникает потребность в большем количестве высокоскоростных портов, которые смогут обработать большой объем данных, поступающих из различных сетей. А этот факт является движущей силой для модернизации магистральных линий. Так же потребность в высокоскоростных сетях связано в значительной степени с эволюцией сетевых карт на серверах. Большинство серверов работали с сетевыми картами, обрабатывающие данные на скоростях от 1G до 10G. Современные сервера имеют сетевые карты, поддерживающие скорости от 10G до 100G и подключены к коммутаторам top-of-rack. В перспективе разрабатывается возможность увеличения скорости до 400G с использованием коммутаторов top-of-rack. Переход локальных сетей от 10G до 100G Цены на оптоволокно сейчас резко снизились. Сейчас стоимость кабеля 25G сравнялась с ценой провода 10G. Аналогично сравнялись цены оптики 40G и 100G. Исходя из этого целесообразно использовать кабель, поддерживающий скорости в 25G и 100G. Использование оптоволокна 100G позволяет кратно уменьшить количество кабелей, что в свою очередь приводит к экономии пространства серверной и экономии средств. Дата-центры компаний Cisco, Juniper, Arista, HPE и Huawei Cisco, Juniper, Arista, HP и Huawei- это лишь небольшая часть поставщиков, которые активно используют возможности high-speed, а также традиционных скоростных сетей Ethernet. Juniper имеет линейку коммутатор поддерживающих более 48 портов Ethernet 25G или 100G. Но интерфейсы на 100G- это только начало для высокоскоростного Ethernet. Более высокие скорости – 100G, 200G, 400G и 800G – будут внедрены в ближайшие 5 лет.
img
В прошлой статье мы рассмотрели, как создавать в амазоне инстансы с помощью Terraform. В данной статье мы рассмотрим, как изменять то, что мы создали в облаке. Из прошлой статьи у нас есть работающий сервер в амазоне, теперь нам необходимо изменить его параметры. Допустим мы решили, что нам одного сервера недостаточно и нам понадобился еще один сервер. Мы можем внести изменение. Вместо count 1, подставим значение 2. Сохраняем изменение в файле. Пробуем запустить, команду которая покажет, что у нас произойдет - terraform plan. Мы видим, что в результате наших действий, будет добавлен еще один сервер. Запускаем на выполнение terraform apply. Не забываем, что необходимо подтвердить наше действие напечатав yes. Мы можем увидеть, что в результате наших действий изменилось количество бегущих серверов. Теперь их 2 штуки. Следующий шаг. Давайте попробуем изменить, размер сервера. У нас был t2.micro, возьмем немного побольше сервер t3.micro и уберем один лишний сервер изменив параметр count c 2 на 1. Вводим команду terraform plan и видим, что один сервер будет уничтожен, а второй будет изменен. Ну и стандартное уже terraform apply с подтверждением своих действий. Перейдем в консоль амазон и посмотрим, что происходит. Амазон, в соответствии с произведёнными изменениями меняет размер виртуального сервера и уничтожает лишний. Теперь, можно посмотреть в официальной документации resource aws_instance, те параметры, которые можно изменять таким нехитрым образом в амазон с помощью Terraform. Давайте добавим так, чтобы обозначить, например, сервер. На старице в официальной документации, было показано, что внутрь ресурса надо добавить. tags = { Name = "Vasya" } И отправляем изменения в амазон terraform apply. На выходе мы получим. Сервер с именем Vasya. По факту мы не сделали ничего нового, просто изменили пустые параметры, грубо говоря просто подписали, добавили tags. Tags имеет смысл добавлять к каждому развертываемому серверу, потому что в крупных проектах, когда серверов более 100, а то и пол тысячи, будет очень легко запутаться и в параметрах и в запущенных серверах. В этом случае tag или по-другому метки, нас выручат очень хорошо. Обратите внимание, когда мы вносим, какое-либо изменение в код, то при выводе результата команды terraform plan, на против планируемых изменений мы видим знак + зеленый если добавляется что-то или знак - красный если мы, что-то убираем. Еще не мало важный фактор. Нельзя вносить изменения в сервера, в ручном режиме через консоль, которые мы обслуживаем с помощью Terraform. Все, изменения, которые вы внесете в ручном режиме, будут удалены при синхронизации, потому что данных параметров нет в коде. Следовательно, исходя из этого принципа, удалять ресурсы тоже необходимо через код. Делается это достаточно просто, просто необходимо удалить ресурс из кода или поставить параметр count = 0 внутри ресурса. В нашем примере я изменил параметр count = 0. И можно видеть, что Terraform сообщил нам о том, что сервер будет уничтожен в облаке. И действительно, если мы посмотрим в консоль, то мы увидим, что все сервера в облаке находятся в состоянии terminated, в течении полутора минут. Это означает, что данные сервера выключены и готовятся к удалению. Если у нас несколько серверов предназначен для удаления, то Terraform будет производить выключение и последующее удаление данных серверов параллельно.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59