четверг, 15 февраля 2024 г.

Перевод сервера RDP Windows 2008 R2 на AD

При подключении терминального сервера на Windows 2008 R2 к Active Directory столкнулся со следующей проблемой: "Серверу лицензирования служб терминалов не удается обновить атрибуты лицензии для пользователя "name" в домене Active Directory "domain.loc". В диспетчере лицензирования служб терминалов сервер активирован.
Решилось следующим образом... Убедился что учетная запись компьютера для сервера лицензирования входит в группу серверов лицензирования сервера терминалов в домене Active Directory "domain.loc".Если сервер лицензирования установлен на контроллере домена, учетная запись сетевой службы также должна входить в группу серверов лицензирования сервера терминалов.
Если сервер лицензирования установлен на контроллере домена после добавления соответствующих учетных записей в группу серверов лицензирования сервера терминалов, необходимо перезапустить службу лицензирования служб терминалов для прослеживания или получения отчета об использовании клиентских лицензий служб терминалов "на пользователя".
Далее идем "Пуск ---> Администрирование ---> Службы терминалов ---> Диспетчер лицензирования служб терминалов", слева Раскрываем группу "Все серверы" жмем +, видим там наш сервер (стоит восклицательный знак), щелкаем по нему правой кнопкой мыши, выбираем "Проверить настройку", видим там, что учетная запись и сервер лицензирования не входит в группу, нажимаем вступить в группу, он просит перезапустить службу лицензирования служб терминалов, перезапускаем - все начинает работать.

среда, 17 мая 2023 г.

Восстановление вкладок Safari

 Очень редко переустанавливаю Mac OS с нуля, без восстановления настроек из Time Machine, поэтому был сильно удивлен что файлов с настройками браузера Safari не оказалось на прежнем месте (где они были лет 10-15 назад)). Пришлось покопаться в системе.

В результате файлы нашлись по пути

~/Library/Containers/com.apple.Safari/Data/Library/Safari

Можно заменить всю папку Safari на новой системе, можно заменить только файлы

SafariTabs.db

SafariTabs.db-shm

SafariTabs.db-wal

После чего стартуем Safari и наслаждаемся использованием своих старых вкладок.

среда, 22 марта 2023 г.

Копирование виртуальной машины с ESXi на ESXi

Пользуемся уже глубоко устаревшим vSphere 5.5 (железо старенькое, 6 вмваря уже не встает, но со своими задачами кластер справляется), так что давно привык к миграции и клацанью мышкой по нарисованным кнопкам в гуе. Но тут вдруг на стенде столкнулся с надобностью перекинуть ВМ с ESXi1 на ESXi2 (оба с локальными датасторами) без использования промежуточной машины. Самое простое оказалось перекинуть через ssh.

Что делаем:

1) Через vmvare-клиента включаем службу ssh.



2) Разрешаем клиенту ssh ходить через firewall


3) Создаем на ESXi2 в datastore1 папку, куда будем копировать файлы переносимой ВМ.

4) Выключаем ВМ на ESXi1 и удаляем ее из ивентаря.

5) Подключаемся к ESXi1 по ssh и переходим в каталог с копируемой ВМ 

    cd /vmfs/volumes/datastore1/Имя_ВМ

6) Копируем файлы ВМ на esxi2

    scp -v -c aes128-ctr -r * root@IPадресESXi2:/vmfs/volumes/datastore1/ИмяВМ

вводим пароль  пользователя root ESXi2 и если все в порядке - начнется копирование.

среда, 15 сентября 2021 г.

Установка сервера 1С 8.3 на CentOS 7 + PostgreSQL + Apache + Haspemul + Backup

Установка и настройка ОС

0. Если ставим на виртуалку - обязательно в нее добавляем USB-контроллер, иначе хаcпэмулятор не заведется

1. Устанавливаем CentOS 7 в минимальной конфигурации, назначаем IP и имя сервера

2. Обновляем CentOS, устанавливаем исходники ядра и необходимые пакеты

yum -y install epel-release
yum -y update

yum -y install wget bzip2 traceroute net-tools nano bind-utils telnet htop atop iftop lsof tar zip unzip mc usbutils git jansson-devel ImageMagick unixODBC glibc

3. Отключаем CElinux, выставив celinux=disabled в /etc/celinux/config и перезагружаемся


Установка и настройка PostgreSQL

4. Добавляем репозиторий Postgres Pro

rpm -i http://repo.postgrespro.ru/pgpro-13/keys/centos.rpm
yum makecache


5. Устанавливаем PostgreSQL PRO std 13 версии

yum -y install postgrespro-std-13

6. Проверяем статус

systemctl status postgrespro-std-13

7. Останавливаем сервис СУБД и удаляем базу, которая создалась по-умолчанию

systemctl stop postgrespro-std-13
rm -rf /var/lib/pgpro/std-13/data


8. Инициализируем БД, модифицируем настройки под работу с 1с и добавляем поддержку русского языка

/opt/pgpro/std-13/bin/pg-setup initdb --tune=1c --locale=ru_RU.UTF-8

9. Добавляем сервис в автозагрузки и проверяем доступность порта 5432

systemctl enable --now postgrespro-std-13

ss -nltup

10. Разрешим авторизовываться пользователям из нашей сети

nano /var/lib/pgpro/std-13/data/pg_hba.conf

#IPv4 local connections:
host all all 127.0.0.1/32 md5
host all all 192.168.0.0/16 md5


11. Создадим пароль для пользователя postgres

$ su - postgres psql

ALTER USER postgres WITH ENCRYPTED PASSWORD 'наш_пароль';
\q


12. Перезапускаем сервис postgrespro-std-13

systemctl restart postgrespro-std-13

13. Настраиваем firewall для доступа к серверу извне

firewall-cmd --permanent --add-port=80/tcp
firewall-cmd --permanent --add-port=443/tcp
firewall-cmd --permanent --add-port=475/tcp
firewall-cmd --permanent --add-port=1540/tcp
firewall-cmd --permanent --add-port=1541/tcp
firewall-cmd --permanent --add-port=1560/tcp
firewall-cmd --permanent --add-port=5432/tcp
firewall-cmd --reload
firewall-cmd --list-all


Установка и настройка драйвера и эмулятора HASP

14. Скачиваем драйвер HASP

cd /tmp
wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/CentOS/7/haspd-8.23-eter2centos.x86_64.rpm
yum -y localinstall haspd*
systemctl restart haspd
systemctl status haspd


15. Собираем драйвера виртуального USB и UsbHasp

yum -y install "kernel-devel-uname-r == $(uname -r)"
yum -y groupinstall "Development Tools"
cd /usr/src
wget https://sourceforge.net/projects/usb-vhci/files/linux%20kernel%20module/vhci-hcd-1.15.tar.gz/download -O vhci-hcd-1.15.tar.gz
wget https://sourceforge.net/projects/usb-vhci/files/native%20libraries/libusb_vhci-0.8.tar.gz/download -O libusb_vhci-0.8.tar.gz
git clone https://github.com/sam88651/UsbHasp.git
tar -xpf vhci-hcd-1.15.tar.gz
tar -xpf libusb_vhci-0.8.tar.gz
cd vhci-hcd-1.15
mkdir -p "/usr/src/vhci-hcd-1.15/linux/$(uname -r)/drivers/usb/core"
cp "/usr/src/kernels/$(uname -r)/include/linux/usb/hcd.h" "/usr/src/vhci-hcd-1.15/linux/$(uname -r)/drivers/usb/core/"

# В файлах "usb-vhci-hcd.c" и "usb-vhci-iocifc.c" находим "#define DEBUG" и комментируем //
make KVERSION="$(uname -r)" KSRC="/usr/src/kernels/$(uname -r)"
make install

# Загружаем модули в ядро
echo "usb_vhci_hcd" | sudo tee /etc/modules-load.d/usb_vhci.conf
modprobe usb_vhci_hcd
echo "usb_vhci_iocifc" | sudo tee -a /etc/modules-load.d/usb_vhci.conf
modprobe usb_vhci_iocifc

# Собираем библиотеки libusb_vhci
cd ../libusb_vhci-0.8
./configure
make
make install
echo "/usr/local/lib" | sudo tee /etc/ld.so.conf.d/libusb_vhci.conf
ldconfig -v

# Собираем эмулятор UsbHasp
cd ../UsbHasp
# В /usr/src/UsbHasp/nbproject/Makefile-Release.mk заменить "CFLAGS=" на "CFLAGS=-std=gnu99"
make
cp /usr/src/UsbHasp/dist/Release/GNU-Linux/usbhasp /usr/bin


16. Настраиваем и запускаем USB HASP emulator

mkdir /etc/haspkey/
nano /etc/systemd/system/usbhaspemul.service


[Unit]
Description=Emulation HASP key for 1C
Requires=haspd.service
After=haspd.service
[Service]
Type=simple
ExecStart=/usr/bin/sh -c 'find /etc/haspkey -name "*.json" | xargs /usr/bin/usbhasp'
Restart=always
[Install]
WantedBy=multi-user.target
systemctl daemon-reload
systemctl enable usbhaspemul

# Загружаем дампы usb-ключей в каталог /etc/haspkey/
cp /tmp/Dumps/1c_server_x64.json /etc/haspkey/
cp /tmp/Dumps/100user.json /etc/haspkey/

# Пробуем запустить USB HASP Emulator, проверяем статус
systemctl start usbhaspemul
systemctl status usbhaspemul


Установка и настройка 1С-сервера

17. Качаем последнюю версию 1С сервера с сайта 1С

18. Распаковываем архив с сервером 1С и устанавливаем его

cd /tmp
tar xvf rpm64_8.3.19.1264.tar.gz
yum -y localinstall *.rpm


19. Создадим симлинки для старта 1С-сервера как сервиса

ln -s /opt/1cv8/x86_64/8.3.19.1264 /opt/1cv8/x86_64/current
ln -s /opt/1cv8/x86_64/current/srv1cv83.conf /etc/sysconfig/srv1cv83
ln -s /opt/1cv8/x86_64/current/srv1cv83 /etc/init.d/srv1cv83

20. Меняем владельца и группу директории /opt/1C

chown -R usr1cv8:grp1cv8 /opt/1cv8/

21. Создадим и запустим сервис, проверим его статус

systemctl enable srv1cv83
systemctl start srv1cv83
systemctl status srv1cv83


22. Создаем каталог, в котором будут храниться конфигурации 1с для подключения к базе

mkdir -p /opt/1cv8/base
chown -R usr1cv8:grp1cv8 /opt/1cv8/base


23. Редактируем конфигурационный файл сервера 1с srv1cv83, указываем путь к новому каталогу

nano /etc/sysconfig/srv1cv83
SRV1CV8_DATA=/opt/1cv8/base


24. Перезапускаем сервис srv1cv83 и проверяем статус

systemctl restart srv1cv83
systemctl status srv1cv83


25. На любой компьютер устанавливаем толстый клиент 1С Предприятие той же версии что и сервер, во время установки обязательно выбираем компонент «Администрирование серверов 1С Предприятия»

26. Запускаем утилиту «Администрирование серверов 1С Предприятия», в открывшемся окне выбираем Создать - Центральный сервер 1С:Предприятие 8.3, вписываем данные настроенного сервера

Протокол: tcp
Имя: IP-адрес сервера
IP порт: 1540
Описание: Сервер 1С CentOS 7


27. Переходим в раздел Кластеры - Локальный кластер. Выбираем Создать - Информационная база. Заполняем параметры для создания новой базы

Имя: zup30
Описание: Зарплата
Защищенное соединение: выключено
Сервер баз данных: 127.0.0.1
Тип СУБД: PostgreSQL
База данных: zup30
Пользователь сервера БД: postgres
Пароль пользователя БД: ‘password’
Разрешить выдачу лицензий сервером 1С:Предприятия: Да
Язык (Страна): русский (Россия)
Создать базу данных в случае ее отсутствия: Да
Установить блокировку регламентных заданий: Нет


28. Если получаем ошибку «Этот хост неизвестен», надо прописать либо запись в DNS, либо в файле hosts

Установка и настройка публикации 1С на вебсервере Apache

29. Установка шрифтов для публикации на вебсервере

yum -y install rpm-build ttmkfdir fontconfig freetype libgsf
cd /tmp
wget https://pkgs.dyn.su/el8/base/x86_64/cabextract-1.9-2.el8.x86_64.rpm
yum -y localinstall cabextract-1.9-2.el8.x86_64.rpm
wget http://corefonts.sourceforge.net/msttcorefonts-2.5-1.spec
rpmbuild -bb msttcorefonts-2.5-1.spec

(если не скачиваются шрифты, надо запустить команду еще раз)
yum -y install $HOME/rpmbuild/RPMS/noarch/msttcorefonts-2.5-1.noarch.rpm

30. Устанавливаем веб-сервер Apache c поддержкой ssl

yum -y install httpd mod_ssl
Так как компания 1С рекомендует использовать модуль мультипроцессорной обработки worker, выясняем с каким модулем работает наш сервер
apachectl -V | grep -I mpm
И если это prefork или event
меняем его на mpm_worker в /etc/httpd/conf.modules.d/00-mpm.conf
создаем службу, запускаем апач и проверяем статус
systemctl enable --now httpd
systemctl status httpd


31. Создадим каталог, он будет использован как путь публикации для web-сервера 1с

mkdir -p /var/www/infobase

32. Создадим пустой файл, он будет указан в качестве конфигурационного файла web-сервера 1с

touch /etc/httpd/conf.d/base.conf

33. Публикуем базу 1С

cd /opt/1cv8/x86_64/current/
./webinst -apache24 -wsdir base -dir /var/www/infobase/ -connStr "Srvr=1c.server.ru;Ref= zup30;» -confPath /etc/httpd/conf.d/base.conf
chown apache:apache /var/www/infobase/default.vrd


Расширенная конфигурация публикации базы 1С на вебсервере Apache

34. Подобная публикация базы создает минимальную конфигурацию VRD, которой достаточно для работы с базой через веб, но недостаточно для работы того же Bitrix в связке с 1С, так как должны быть опубликованы и сервисы. Для Битрикса и подобных связок конфигурация должна быть примерно такая:

<?xml version="1.0" encoding="UTF-8"?>
<point xmlns="http://v8.1c.ru/8.2/virtual-resource-system"
xmlns:xs="http://www.w3.org/2001/XMLSchema"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
base="/zup30"
ib="Srvr=1c.server.ru;Ref=zup30;">
<ws publishExtensionsByDefault="true">
<point name="AccHRMDataTransfer"
alias="AccHRMDataTransfer.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="EnterpriseDataExchange_1_0_1_1"
alias="EnterpriseDataExchange_1_0_1_1.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="EnterpriseDataUpload_1_0_1_1"
alias="EnterpriseDataUpload_1_0_1_1.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="EquipmentService"
alias="EquipmentService.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="Exchange"
alias="exchange.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="Exchange_2_0_1_6"
alias="exchange_2_0_1_6.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="Exchange_3_0_1_1"
alias="exchange_3_0_1_1.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="InterfaceVersion"
alias="InterfaceVersion.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="MobileAccounting"
alias="MobileAccounting.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="MobileEntrepreneur"
alias="MobileAcc.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="MobileEntrepreneur_1_0_2_1"
alias="MobileEntrepreneur.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="RemoteAdministrationOfExchange"
alias="RemoteAdministrationOfExchange.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="RemoteAdministrationOfExchange_2_0_1_6"
alias="RemoteAdministrationOfExchange_2_0_1_6.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="RemoteAdministrationOfExchange_2_1_6_1"
alias="RemoteAdministrationOfExchange_2_1_6_1.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="RemoteAdministrationOfExchange_2_4_5_1"
alias="RemoteAdministrationOfExchange_2_4_5_1.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<point name="RemoteControl"
alias="RemoteControl.1cws"
enable="true"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
</ws>
<httpServices publishExtensionsByDefault="true">
<service name="ExternalAPI"
rootUrl="api"
enable="false"
reuseSessions="dontuse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<service name="MobileAppReceiptScanner"
rootUrl="MobileAppReceiptScanner"
enable="false"
reuseSessions="autouse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<service name="ПередачаДанных"
rootUrl="dt"
enable="false"
reuseSessions="use"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<service name="ЭДО"
rootUrl="edi"
enable="false"
reuseSessions="autouse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
</httpServices>
<standardOdata enable="false"
reuseSessions="autouse"
sessionMaxAge="20"
poolSize="10"
poolTimeout="5"/>
<analytics enable="true"/>
</point>


Бэкапирование и восстановление баз 1С

35. Создаем бэкап базы данных

mkdir /opt/backup
sudo -u postgres pg_dump pnk_bis | pigz > /opt/backup/zup30.sql.gz


36. Восстанавливаем базу из бэкапа

Разархивируем бэкап базы данных
unpigz /opt/backup/zup30.sql.gz (исходный архив будет удален) или
unpigz -c /opt/backup/zup30.sql.gz > zup30.sql (исходный архив останется)
Создаем базу данных для разворачивания бэкапа
sudo -u postgres createdb -T template0 zup30_restored
Восстанавливаем бэкап в созданную базу данных
sudo -u postgres psql zup30_restored < zup30.sql 1>/dev/null
Удаляем базу данных
sudo -u postgres dropdb zup30_restored

38. Создадим скрипт для упрощения процесса бэкапирования

#!/bin/sh
# Устанавливаем дату
DATA=`date +"%Y-%m-%d_%H-%M"`
# Бэкапим базу данных zup30
echo "`date +"%Y-%m-%d_%H-%M-%S"` Start backup zup30" >> /opt/backup-sql.log
su - postgres /usr/bin/pg_dump zup30 | pigz > /opt/backup/$DATA-zup30.sql.gz
echo "`date +"%Y-%m-%d_%H-%M-%S"` End backup zup30" >> /opt/backup-sql.log
# Удаляем в папке с бэкапами архивы старше 30 дней
/usr/bin/find /backup -type f -mtime +30 -exec rm -rf {} \;


39. Создадим скрипт для анализа и переиндексации базы данных

#!/bin/sh
# Выполняем очистку и анализ базы данных
echo «`date +»%Y-%m-%d_%H-%M-%S»` Start vacuum zup30» >> /opt/service.log
sudo -u postgres vacuumdb --full --analyze zup30
echo «`date +»%Y-%m-%d_%H-%M-%S»` End vacuum zup30» >> /opt/service.log
sleep 3
# Переиндексируем базу данных
echo «`date +»%Y-%m-%d_%H-%M-%S»` Start reindex zup30» >> /opt/service.log
sudo -u postgres reindexdb zup30
echo «`date +»%Y-%m-%d_%H-%M-%S»` End reindex zup30» >> /opt/service.log

пятница, 3 сентября 2021 г.

Установка драйвера exFAT в CentOS 7


Для установки драйвера exFAT в ОС Linux 7 необходимо выполнить следующие команды:

yum install -y http://li.nux.ro/download/nux/dextop/el7/x86_64/nux-dextop-release-0-1.el7.nux.noarch.rpm
yum install exfat-utils fuse-exfat


После этого устройство с exFAT можно подключить в систему стандартным способом:

mount /dev/sdXX /mnt/

четверг, 2 сентября 2021 г.

Установка Mate, Xfce и Cinnamon на CentOS 7

Устанавливаем EPEL репозиторий:
yum install epel-release

Устаналиваем X Window System:
yum groupinstall "X Window system"

Устаналиваем менеджер дисплеев:
yum install lightdm (либо gdm)

Устаналиваем шрифты:
yum groupinstall "Fonts"

Устанавливаем Mate:
yum groupinstall "MATE Desktop"

Устанавливаем Xfce:
yum groupinstall "Xfce"

Устанавливаем Cinnamon:
yum --enablerepo=epel -y install cinnamon*

Указываем загрузку графического интерфейса:
systemctl set-default graphical.target
systemctl isolate graphical.target

Если интерфейс не грузится делаем следующее:
rm '/etc/systemd/system/default.target'
ln -s '/usr/lib/systemd/system/graphical.target' '/etc/systemd/system/default.target'

Чтобы вернуть обычную загрузку:
systemctl set-default multi-user.target

Установим графическую оболочку для Yum:
yum install yumex


Так же можно реализовать RDP-доступ к компьютеру с помощью XRDP:
yum install xrdp tigervnc-server

Правим /etc/xrdp/xrdp.ini
    security_layer=rdp
    certificate=/etc/xrdp/cert.pem
    key_file=/etc/xrdp/key.pem
    [Xvnc]
    xserverbpp=24

Не забываем создать файл /etc/sysconfig/desktop и вписать в него строчку
    PREFERRED=cinnamon-session (вместо вызова cinnamon можно вписать gnome или другое установленное окружение)
А так же разрешить доступ к порту 3389
firewall-cmd --permanent --zone=public --add-port=3389/tcp
firewall-cmd --reload


Запускаем xrdp и делаем его сервисом:
systemctl enable xrdp
systemctl start xrdp



среда, 22 ноября 2017 г.

Установка драйвера RAID Adaptec 5405 на VMware ESXi 5.5

Долгое время бился над проблемой нестабильной работы ESXi в кластере vSphere на серверах Supermicro с raid-контроллером Adaptec 5405. Ни с того ни с сего отваливалось управление гипервизором после перезагрузки, попытка зайти через web приводила к 503 ошибке. Выяснил что падает служба hostd, перешерстил весь интернет как это можно исправить, перепробовал все найденые варианты - ничего не помогало, либо помогало временно и после перезагрузки происходило все то же самое. Самым быстрым временным решением оказался сброс сервера к параметрам по умолчанию, с последующим введением его обратно в кластер (все VM перед этим надо, естественно, не забыть мигрировать на другие сервера) и настройкой.
На днях случайно обнаружил после каких действий происходит данная проблема - все начинается после включения драйвера iSCSI. Последующая перезагрузка приводит к падению hostd (а бывает все падает и сразу после включения). Так как виртуалки лежат на внешних iSCSI-хранилищах - нет возможности драйвер не включать, в связи с этим было принято решение попытаться найти драйвер от производителя и попробовать его поставить вместо родного системного.

1. Драйвер нашелся по адресу https://storage.microsemi.com/en-us/support/raid/sas_raid/sas-5405/
2. Распаковал его и vib из архива закинул на локальный датастор сервера
3. Зашел на сервер по ssh и выполнил команду esxcli software vib install –v /path/async-driver.vib
4. Перезагрузил сервер.