Proxmox
-
Скрипт для обновления всех контейнеров (к предыдущей статье)
Скрипт для обновления всех контейнеров (Проверенная совместимость: 7.x — 8.3.5) Этот скрипт обновляет все работающие контейнеры Proxmox, пропуская указанные исключенные контейнеры и генерирует отдельный файл журнала для каждого контейнера. Сценарий сначала обновляет систему хостов Proxmox, затем перестраивается через каждый контейнер, обновляет контейнер и при необходимости перезагружает его. Файл журнала каждого контейнера хранится в $log_path, а основной файл журнала скриптов называется container-upgrade-main.log. Установить wget https://raw.githubusercontent.com/Meliox/PVE-mods/main/updateallcontainers.sh Или используйте клон Git. Может быть добавлен в cron для, например, ежемесячного обновления: 0 6 1 * * /root/scripts/updateallcontainers.sh Текст скрипта: #!/bin/bash # This script updates all running Proxmox containers, skipping specified excluded containers, and generates a separate log file for each container. # The script…
-
Как контролировать временные процессоры и скорости FAN в виртуальной среде Proxmox
Если вы ищете способ следить за своим выделенный сервер датчики внутри Proxmox (PVE) следуют этим простым шагам. Это bash Сценарий устанавливает модификацию веб-интерфейса пользователя Proxmox Virtual Environment (PVE) (UI) для отображения показаний датчиков гибким и читаемым способом, который может быть полезен для мониторинга вашего здоровья Proxmox Servers. Поддерживаются CPU, NVMe/HDD/SSD температуры (Celsius/Fahrenheit), скорость вентилятора и температура тарана. Модификация включает в себя три основных этапа: Создать резервные копии исходных файлов, расположенных на /usr/share/pve-manager/js/pvemanagerlib.jsи /usr/share/perl5/PVE/API2/Nodes.pmв backupКаталог относительно места действия сценария. Добавить новый код в Nodes.pmфайл, который позволяет считывать датчик системы хоста с помощью sensorsКомандованием. Изменить pvemanagerlib.jsфайл для расширения пространства в представлении состояния узла, добавьте новые элементы, которые отображают информацию о температуре в…
-
CPU temp + ID отсутствует Dashboard Webmin
Вы можете попробовать следующую команду для применения патча: cd /usr/share/webmin && curl https://github.com/webmin/webmin/commit/a85fa2f8c281fd28e1a4a80c44d08231681be077.patch | git apply --reject --whitespace=fix … затем не забудьте перезапустить Webmin вручную с помощью systemctl restart webminкоманда и, наконец, принудительное обновление системной информации с помощью верхней правой кнопки обновления в приборной панели. Показывает ли он информацию о температуре процессора сейчас? Сам текст патча (a85fa2f8c281fd28e1a4a80c44d08231681be077.patch) скопировать и вставить в файл можно: From a85fa2f8c281fd28e1a4a80c44d08231681be077 Mon Sep 17 00:00:00 2001 From: Ilia Ross <ilia@ross.gdn> Date: Thu, 19 Oct 2023 20:35:57 +0300 Subject: [PATCH] Fix Cortex CPU detection in `sensors` output https://forum.virtualmin.com/t/cpu-temp-id-missing-dashboard/123096 [build] --- proc/linux-lib.pl | 11 +++++++++-- 1 file changed, 9 insertions(+), 2 deletions(-) diff --git a/proc/linux-lib.pl b/proc/linux-lib.pl index…
-
Жесткие диски можно пробрасывать как через проброс физического контроллера жестких дисков
Жесткие диски можно пробрасывать как через проброс физического контроллера жестких дисков, как PCIe устройство, (не рекомендую пробрасывать контроллер интегрированный в материнскую плату, только подключенные к PCIe), либо напрямую: заходим в ## cd /dev/disk/by-id через dir смотрим листинг… копируем строки вида ata-WDC_WD40EFRX-68WT0N6_WD-WCC4E1АС9SХ9, в которой прописан интерфейс подключения, марка и номер серии жесткого диска. 1 вариант: Затем открываем Файл конфигурации ВМ и пишем: sata1: volume=/dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N6_WD-WCC4E1АС9SХ9 и все работает, при этом учитывайте, что sata0-sata5, т.е. для одной ВМ число подключаемых таким образом дисков, включая виртуальных, не может превышать 6шт. 2 вариант: в консоле пишем команду: qm set 101 -scsi1 /dev/disk/by-id/ata-ST3000DM001-1CH166_Z1F41BLC Если же бэкап будет осуществлять не виртуалкой, а хостом с ProxMox’ом, то нужно…
-
Часть 2: выбираем сервисы
Установка приложений, настройка сервисов Спланировав хранилище, перехожу к установке программного обеспечения. Docker уже установлен, и теперь я установлю поддержку файловой системы MergerFS и SnapRAID для архивного массива данных. Для примера возьмём 8 HDD, на которых будут располагаться файлы. С помощью WebUI Proxmox я форматирую их в EXT4, но не добавляю в качестве хранилища для гипервизора. На этом этапе я выбираю точку монтирования в отдельном каталоге /mnt/pve, и для 7 жёстких дисков задаю созвучные имена media-disk-1 media-disk-2 … media-disk-7, а 8-й жёсткий диск отдам под хранение чётности для SnapRAID и смонтирую его с именем disk-parity-1 в ту же директорию. Хочу обратить внимание, что Proxmox VE не записывает точки монтирования в /etc/fstab,…
-
Планирование хранилища
Мой вариант — Proxmox VE Я выбираю Proxmox VE, и вот почему. Во-первых, это хоть и бесплатный продукт, но с платной техподдержкой для Enterprise-уровня, и это накладывает отпечаток на весь дистрибутив. По той причине, что он выпускается не сообществом, а фирмой, он как минимум, не собран на коленках, как OMV, лишён космических амбиций как Truenas Scale, в отличии от Unraid, он рассчитан на работу 24×7 в Enterprise-среде, где активно и применяется, и при этом распространяется бесплатно с открытым исходным кодом, который проходит аудит сообщества, что отличает его от QNAP QTS и Synology DSM. Ядром Proxmox VE является Debian Linux, что даёт доступ к любому софту и любому современному железу, устанавливаемому…
-
Proxmox и OpenMediaVault на одном сервере. Настройка Snapraid для NAS с жесткими дисками разных размеров.
Введение: Snapraid – это софтовый рейд, который позволяет собрать себя из жестких дисков разного размера. Так-же если не специально удалили информацию, то её всегда можно будет восстановить. Диск четности должен быть равен размеру самого большого диска в рейде. Вот определение написанное на сайте SnapRaid: Вы можете использовать диски, уже заполненные файлами, без необходимости их переформатирования, получая к ним доступ как обычно. Все ваши данные хешируются для обеспечения целостности данных и предотвращения скрытого повреждения. Когда количество неисправных дисков превышает количество четности, потеря данных ограничивается затронутыми дисками; данные на других дисках остаются доступными. Если вы случайно удалили файлы на диске, их можно восстановить. Диски могут иметь разные размеры. Вы можете добавлять диски…
-
Proxmox — Замена диска в raid zfs
Будем менять диск /dev/sde ( /dev/disk/by-id/ata-ST32000645NS_Z2950MQR-part1 ) Меняем старый мертвый диск на новый. Удаляем все разделы если нужно с /dev/sde ( ST32000645NS s/n Z2950MQR ) sfdisk —delete /dev/sde Наш ZFS RAID название RAIDZ Выводим информацию по райду и дискам zpool status RAIDZ pool: RAIDZ state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using ‘zpool replace’. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: scrub repaired 0B in 00:01:28 with 0 errors on Sun Jun 13 00:25:30 2021 config: NAME STATE READ WRITE CKSUM RAIDZ DEGRADED 0 0 0…
-
Как восстановить ZFS после переустановки proxmox
Недавно я подтасовал свой производственный проксмо-сервер после того, как (глупо) попытался соединить его с кластером, не убедившись, что обе системы были обновлены до одной и той же версии proxmox. Производственный сервер все еще работал, поэтому я смог создать резервную копию критически важных виртуальных машин в другой хост proxmox, чтобы все снова заработало. Я переустановил Proxmox на своем производственном сервере. В этот момент я мог бы отреставрировать и восстановить с другого хоста proxmox обратно на производственный сервер, но резервное копирование и восстановление заняли много времени, и я знал, что мои данные ZFS все еще не повреждены, поэтому я подумал, что было бы более эффективно, если бы я мог просто восстановить пул…
-
Потерянный RAID после установки PVE
Когда я переустанавливаю PVE на загрузочном диске, я потерял все свои конфигурации, это вполне нормально, но я не могу перезарядить пул ZFS, я должен протереть свои диски, а затем воссоздать пулы ZFS. Есть ли способ перемонтировать хранилище? Прежде всего: зайдите в CLI и проверьте, есть ли там бассейн, через «список пула». Если он есть, то единственное, что нужно сделать, это снова зарегистрировать пул в Proxmox. Если его нет, вам может понадобиться импортировать его. Это может помочь: https://docs.oracle.com/cd/E19253-01/819-5461/gazuf/index.html BTW: Вы можете создать резервную копию своего «storage.cfg» под /etc/pve и повторно ввести конфигурацию там после переустановки. zpool import -f YourPoolNameЗатем добавление нового хранилища ZFS (в webUI: Datacenter -> Хранилище -> Добавить ->…