top
logo


Категория - FAQ/Общие вопросы
Прописать путь к HASP ключу 1C (один С) PDF Печать E-mail
17.01.13 13:17

Прописать путь к HASP ключу 1C

 


Прописать путь к HASP ключу 1с 7.7
в nethasp.ini пропишите адрес сервера с ключем:

NH_SERVER_ADDR = srv.domen.ru
NH_SERVER_NAME = srv.domen.ru

Попробуй
> NH_NETBIOS=Disabled
заменить
> NH_NETBIOS=Enabled



Прописать путь к HASP ключу 1с 7/8
Попробуйте на удаленной машине прописать в файле nethasp.ini (должен находится в папке bin в "1С"):
[NH_COMMON]
NH_TCPIP = Enabled
...
[NH_TCPIP]
NH_SERVER_ADDR = x.x.x.x
NH_TCPIP_METHOD = TCP
NH_USE_BROADCAST = Disabled



ссылка на материал: http://www.thin.kiev.ua/categoryblog/751-hasp-1c.html
{jcomments on}
Последнее обновление 20.01.14 10:23
 
KVM VPS на Proxmox за NAT с пробросом портов PDF Печать E-mail
11.01.13 10:19

Часто, когда сервер арендуется у какого-либо хостинг-провайдера, к нему прилагается от одного до нескольких IP-адресов. Если сервер «каноничный» и все сервисы устанавливаются прямо на ОС, деля ресурсы между собой как придется, то данной проблемы может и не возникнуть. Но если же планируется четкое разделение ресурсов сервера посредством виртуализации, то в какой-то момент может появиться надобность либо в дополнительных IP-адресах, либо в организации NAT и пробросе портов. Если, конечно, сервисы смотрят наружу.
Организовать NAT для нескольких виртуальных машин довольно просто. В Proxmox «из коробки» доступно создание сетевых мостов. Для наших целей создадим бридж vmbr1 с ip-адресом 192.168.1.1 и стандартной маской 255.255.255.0.

После того как он заработает, идем в /etc/network/interfaces и немного правим конфигурацию созданного бриджа:

1
2
3
4
5
6
7
8
9
10
auto vmbr1
iface vmbr1 inet static
address 192.168.1.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.1.0/24' -o vmbr0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '192.168.1.0/24' -o vmbr0 -j MASQUERADE

Здесь мы разрешаем виртуальным машинам на vmbr1 подключаться к интернету через vmbr0. Стоит отметить, что последние две строчки с добавлением и удалением правил файрвола могут отличаться по причине того, что в моем случае главным интерфейсом сервера является бридж vmbr0 и сеть настраивается на него. У меня он работает для получения несколькими виртуальными машинами реальных IP-адресов от внешнего гейта. Если у вас сеть настраивается на eth0, то он и должен быть вместо vmbr0. В остальном разницы никакой нет.
Также, включать ip_forward можно в /etc/sysctl.conf.

1
net.ipv4.ip_forward=1

Далее, если необходимо пробросить определенные порты на нужные виртуальные машины. Это можно сделать с помощью iptables:

1
iptables -A PREROUTING -t nat -i vmbr0 -p tcp -d %ext_ip_on_vmbr0% --dport %ext_port% -j DNAT --to %int_ip_on_vmbr1%:%int_port%

Где

%ext_ip_on_vmbr0% — внешний IP-адрес, который находится на vmbr0. Если не указать этого параметра, то порт будет пробрасываться со всех адресов на этом бридже.
%ext_port% — внешний порт по которому будут обращаться к серверу из интернета.
%int_ip_on_vmbr1% — внутренний IP виртуальной машины на vmbr1.
%int_port% — внутренний порт, на котором будет работать сервис в виртуальной машине.

Ну и после применения правил для нужных портов можно посмотреть все ли правильно:

1
2
3
4
5
6
7
8
9
10
11
12
# iptables -L -t nat
Chain PREROUTING (policy ACCEPT)
target prot opt source destination
DNAT tcp -- anywhere xxx.yyy.ru tcp dpt:33122 to:192.168.1.2:22
DNAT tcp -- anywhere xxx.yyy.ru tcp dpt:33222 to:192.168.1.3:22

Chain OUTPUT (policy ACCEPT)
target prot opt source destination

Chain POSTROUTING (policy ACCEPT)
target prot opt source destination
MASQUERADE all -- 192.168.1.0/24 anywhere

Если все верно — остается сделать так, чтобы при перезагрузке правила восстанавливались. Для этого можно воспользоваться iptables-save и скриптами инициализации сети.

1
iptables-save > /etc/iptables.up.rules

Создадим скрипт загрузки правил:

1
nano /etc/network/if-pre-up.d/iptables

И впишем в него команду загрузки правил из сохраненного ранее файла:

1
2
#!/bin/bash
/sbin/iptables-restore < /etc/iptables.up.rules

Не забудем дать права на исполнение этому файлу:

1
chmod +x /etc/network/if-pre-up.d/iptables

Все. Проброс портов работает.

На виртуальных же машинах, которые сидят на vmbr1 конфигурация сети банальна:

1
2
3
4
5
6
# The primary network interface
allow-hotplug eth0
iface eth0 inet static
address 192.168.1.2
netmask 255.255.255.0
gateway 192.168.1.1

 

источник: http://skobkin.ru/2012/03/kvm-vps-proxmox-with-port-forwarding

ссылка на материал: http://www.thin.kiev.ua/categoryblog/741-kvm-vps-proxmox-with-port-forwarding.html

{jcomments on}

Последнее обновление 11.01.13 10:27
 
Free VPS - бесплатный виртуальный частный сервер PDF Печать E-mail
09.01.13 13:45

(free VPS)  виртуальный частный сервер

На host1free.com где раньше можно было свободно получить бесплатный (free VPS) виртуальный частный сервер,  с недавних пор всё поменялось и free VPS дают после добавление ссылки на них в Facebook.

На этот хост много жалоб, например здесь: hosting101.ru/host1free.com

Бесплатный VPN от Amazon

А здесь lowendstock.com/ можно найти список относительно дешевых VPS провайдеров, среди которых можно найти VPS за 10-13 у.е. в год, как например на vds6.net - возможна оплата в вебманями.

А вот www.freevds.net/vds.html Бесплатные VDS за 60 руб  в месяц

 

jcomments on}

Последнее обновление 09.01.13 14:14
 
Настройка VLAN для использования виртуальными машинами Proxmox VE PDF Печать E-mail
09.01.13 11:31

Это может быть полезно при предоставлении сервисов выделениях виртуальных серверов хостинговыми компаниями. Когда каждый из виртуальных серверов имеет собственный внешний адрес. В таких условиях, что обеспечить безопасность каждый из виртуальных серверов находится в собственном Vlan. Как реализовать такую схему для Proxmox VE. Предположим что есть два сервера Proxmox VE 1.6 с двумя гигабитными сетевыми картами, одна из которых используется в технических целях, вторая для работы виртуальных машин.

Начнем настройку сетевых интерфейсов.

 

Редактируем файл /etc/network/interfaces:

# nano /etc/network/interfaces

И добавляем то количество Vlan которые необходимы:

auto vlan2
auto vlan3
auto vlan4

# VLAN 2
iface vlan2 inet static
mtu 1500
vlan_raw_device eth1

# VLAN 3
iface vla3 inet static
mtu 1500
vlan_raw_device eth1

# VLAN 4
iface vlan 4 inet static
mtu 1500
vlan_raw_device eth1

Перезапускаем сетевые интерфейсы:

/etc/init.d/networking restart

После этого они появятся в настройках сети в веб интерфейсе, но лучше перезагрузить сервер. Далее либо через веб интерфейс либо в самом файле добавляем устройства моста для всех Vlan.

auto vmbr2
iface vmbr2 inet static
address 10.10.10.2
netmask 255.255.255.0
gateway 10.10.10.1
bridge_ports vlan2
bridge_stp off
bridge_fd 0
auto vmbr3
iface vmbr3 inet static
address 172.10.10.2
netmask 255.255.255.0
gateway 172.10.10.1
bridge_ports vlan3
bridge_stp off
bridge_fd 0
auto vmbr4
iface vmbr4 inet static
address 192.10.10.2
netmask 255.255.255.0
gateway 192.10.10.1
bridge_ports vlan4
bridge_stp off
bridge_fd 0

Если нужен статический маршрут, который оставался бы после перезагрузки сервера, дописываем такую строчку в /etc/network/interfaces.
В примере указан маршрут в подсеть 192.168.0.0/24 через шлюз 10.10.10.254 и интерфейс vmbr2

# static route
up route add -net 192.168.0.0/24 gw 10.10.10.254 dev vmbr2

Теперь их можно назначать виртуальным машинам.
Одно важное замечание, KVM не может работать с физическими устройствами. Для любого типа устройств необходимо создавать bridge.

 

источник: http://www.alexr.me/index.php/articles/26-2011-04-08-21-07-49/121-vlan-proxmox-ve

ссылка на материал:

{jcomments on}

Последнее обновление 09.01.13 11:35
 
Восстановление из backup виртуальных машин Proxmox VE PDF Печать E-mail
09.01.13 11:18

В архив копируется образы дисков и файл конфигурации.
С восстановлением пока сложнее, все придется делать руками.

В архива находится два файла:
qemu-server.conf - конфигурация виртуальной машины;
vm-disk-virtio0.raw — образ диска виртуальной машины.

Вот что представляет собой файл конфигурации:

name: mail
ide2: local:iso/debian-505-amd64-CD-1.iso,media=cdrom
vlan0: virtio=82:15:30:A4:65:E7
bootdisk: virtio0
virtio0: local:101/vm-101-disk-1.raw
ostype: l26
memory: 1024
onboot: 1
sockets: 1
vlan1: virtio=42:45:F5:F2:95:A8
cores: 1
boot: cad
freeze: 0
cpuunits: 2000
acpi: 1
kvm: 1
lock: backup

Итак приступим.

Восстановление OpenVZ

/usr/sbin/vzrestore [OPTIONS] <ARCHIVE> <VMID>

OPTIONS - можно упустить
ARCHIVE - имя архива
VMID - идентификатор виртуальной машины

Например

/usr/sbin/vzrestore /root/vzdump-openvz-101-2011_04_07-02_00_02.tar 101

восстанавливаем архив /root/vzdump-openvz-101-2011_04_07-02_00_02.tar и присваеваем восстановленной машине ID 101
Вывод лога при восстановлении примерно такой

INFO: restore openvz backup '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar' using ID 101
INFO: extracting archive '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar'
INFO: Total bytes read: 951459840 (908MiB, 49MiB/s)
INFO: extracting configuration to '/etc/vz/conf/101.conf'
INFO: restore openvz backup '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar' successful

При восстановление qemu архива используется qmrestore, параметры такие же

/usr/sbin/qmrestore /root/vzdump-qemu-102-2011_04_07-02_02_06.tar 102

Вывод лога при восстановлении примерно такой:

INFO: restore QemuServer backup '/root/vzdump-qemu-102-2011_04_07-02_02_06.tar' using ID 102
INFO: extracting 'qemu-server.conf' from archive
INFO: extracting 'vm-disk-ide0.raw' from archive
INFO: Formatting '/var/lib/vz/images/102/vm-102-disk-1.raw', fmt=raw size=32768
INFO: new volume ID is 'local:102/vm-102-disk-1.raw'
INFO: restore data to '/var/lib/vz/images/102/vm-102-disk-1.raw' (64424509440 bytes)
INFO: 64424509440 bytes copied, 114 s, 538.95 MiB/s
INFO: restore QemuServer backup '/root/vzdump-qemu-102-2011_04_07-02_02_06.tar' successful

Вот собственно и все восстановление.
После этих процедур вы должны увидеть все виртуальные машины в веб интерфейсе.

 

источник: http://www.alexr.me/index.php/articles/28-linux/123-backup-proxmox-ve

ссылка на материа: http://thin.kiev.ua/categoryblog/735-restore-from-backup-virtual-machines-proxmox-ve.html

{jcomments on}

Последнее обновление 09.01.13 11:21
 
« НачалоПредыдущая11121314151617181920СледующаяПоследняя »

Страница 11 из 25

bottom

 

Unreal Commander PfSense по русски Яндекс.Метрика