Installer un NAS haute dispo avec Openmediavault & Gluster

De $1

punaise1.gif

Sommaire

 

  

exclamationpoint01.png

        Ce tuto est un simple document de travail permettant de confirmer (ou non) la possibilité d'intégrer Gluster à Openmediavault.

En l'état, il ne s'agit absolument pas d'un tuto à vocation de mise en production.

howto05_small.pngUtiliser Openmediavault, Gluster & Ucarp pour créer un NAS haute dispo

Openmediavault est une distribution orientée NAS/SAN basée sur Debian .

Gluster est un système de fichier distribué réseau. Contrairement à DRBD, Gluster permet une évolution dynamique de l'espace de stockage. Il suffit de rajouter des "briques gluster" pour augmenter dynamiquement le volume commun. 

Plus vous installez de NAS sur votre réseau, plus votre espace est important et sécurisé...

Configuration :

2 NAS Openmediavault avec chacun : 2 HDs + 2 cartes réseau

2 IP par NAS

IP 1 : LAN Administratif

IP 2 : LAN Réplication Gluster

1 IP Virtuelle "Failover" : 192.168.1.20

 

Gluster01

IP 1 : 192.168.1.21

IP 2 : 192.168.200.21

HD 1 : 100 Go

HD 2 : 1 To

 

Gluster02 

IP 1 : 192.168.1.22

IP 2 : 192.168.200.22

HD 1 : 100 Go

HD 2 : 1 To

 

 installations-logiciels-professionnels-entreprises02_small50.pngInstallation des 2 NAS

 Faire une installation classique d' Openmediavault sur chacun des NAS

Capture d'écran de 2014-07-28 19:13:39.png

 

Capture d'écran de 2014-07-28 19:16:19.png

 

Capture d'écran de 2014-07-28 19:16:24.png

 

Capture d'écran de 2014-07-28 19:16:29.png

 

Capture d'écran de 2014-07-28 19:17:04.png

 

Capture d'écran de 2014-07-28 19:17:08.png

 

Capture d'écran de 2014-07-28 19:17:14.png

 

Capture d'écran de 2014-07-28 19:17:17.png

 

Capture d'écran de 2014-07-28 19:17:27.png

 

Capture d'écran de 2014-07-28 19:17:31.png

 

Capture d'écran de 2014-07-28 19:17:35.png

 

Capture d'écran de 2014-07-28 19:17:39.png

 

Capture d'écran de 2014-07-28 19:18:03.png

 

Capture d'écran de 2014-07-28 19:18:13.png

 

Capture d'écran de 2014-07-28 19:18:21.png

 

Capture d'écran de 2014-07-28 19:18:28.png

 

Capture d'écran de 2014-07-28 19:18:40.png

 

Capture d'écran de 2014-07-28 19:18:45.png

 

Capture d'écran de 2014-07-28 19:18:52.png

 

Capture d'écran de 2014-07-28 19:48:29.png

 

Capture d'écran de 2014-07-28 19:49:47.png

 

Capture d'écran de 2014-07-28 19:51:06.png

 

Capture d'écran de 2014-07-28 19:55:45.png

 

Capture d'écran de 2014-07-28 20:01:27.png

 

Mises à jour

 

openmediavault001.png 

 

 Installation du plugin LVM

openmediavault002.png

 

openmediavault002b.png

 

Montage du 2ème disque

 

lvm001.png

 

lvm001b.png

 

lvm002.png

 

lvm002b.png

 

lvm003.png

 

lvm003b.png

 

Montage du volume LVM

montage001.png

 

montage002.png

 

montage003.png 

 

montage004.png

 

montage005.png

 

 

 

Activation du NTP

ntp001.png

 

ntp002.png

 

ntp003.png

 

Activation du SSH

ssh001.png

 

ssh002.png

 

ssh003.png

 

Configuration réseau

 

reseau001.png

 

reseau001b.png

 

reseau001c.png

 

reseau002.png

 

reseau003.png

 

Redémarrage

redemarrage001.png

Modification du fichier /etc/hosts

Gluster01 :

root@gluster01:/# nano /etc/hosts 

 

 127.0.0.1       localhost

192.168.1.21    gluster01.yakakliker.org        gluster01

192.168.200.22  gluster02.yakakliker.org        gluster02


# The following lines are desirable for IPv6 capable hosts

::1     ip6-localhost ip6-loopback

fe00::0 ip6-localnet

ff00::0 ip6-mcastprefix

ff02::1 ip6-allnodes

ff02::2 ip6-allrouters


 

Gluster02 :

root@gluster02:~# nano /etc/hosts
 
127.0.0.1       localhost

192.168.1.22    gluster02.yakakliker.org        gluster02

192.168.200.21  gluster01.yakakliker.org        gluster01


# The following lines are desirable for IPv6 capable hosts

::1     ip6-localhost ip6-loopback

fe00::0 ip6-localnet

ff00::0 ip6-mcastprefix

ff02::1 ip6-allnodes

ff02::2 ip6-allrouters

 

 

Identification du montage disque

Gluster01 :

root@gluster01:/# mount

/dev/vda1 on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

tmpfs on /tmp type tmpfs (rw)

/dev/mapper/Vg01-volume01 on /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1 type ext4 (rw,noexec,_netdev,acl,user_xattr,usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0)

 

 

 Gluster02 : 

root@gluster02:~# mount

/dev/vda1 on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

tmpfs on /tmp type tmpfs (rw)

/dev/mapper/vg01-volume01 on /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5 type ext4 (rw,noexec,_netdev,acl,user_xattr,usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0)

 

 

 howto05_small.pngInstallation de Glusterfs

Sur les 2 Gluster :

root@gluster01:/# apt-get install glusterfs-server glusterfs-client

Lecture des listes de paquets... Fait

Construction de l'arbre des dépendances       

Lecture des informations d'état... Fait

Les paquets supplémentaires suivants seront installés : 

  fuse-utils libfuse2 libglusterfs0 libibverbs1 python python-minimal python2.6 python2.6-minimal

Paquets suggérés :

  glusterfs-examples python-doc python-tk python-profiler python2.6-doc python2.6-profiler binutils binfmt-support

Les NOUVEAUX paquets suivants seront installés :

  fuse-utils glusterfs-client glusterfs-server libfuse2 libglusterfs0 libibverbs1 python python-minimal python2.6 python2.6-minimal

0 mis à jour, 10 nouvellement installés, 0 à enlever et 0 non mis à jour.

Il est nécessaire de prendre 6 009 ko dans les archives.

Après cette opération, 20,9 Mo d'espace disque supplémentaires seront utilisés.

Souhaitez-vous continuer [O/n] ? 


 

Création des dossiers de travail Glusterfs

Gluster01 :

root@gluster01:/# cd media

root@gluster01:/media# ls

b3da83fc-55ce-4b90-8539-ab95f1f88fc1  cdrom  cdrom0

 

root@gluster01:/media# cd b3da83fc-55ce-4b90-8539-ab95f1f88fc1/
 
 
root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# mkdir data

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# cd data

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/data# mkdir export

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/data# mkdir export-ns
 

 

Gluster02 :

root@gluster02:/# cd media

root@gluster02:/media# ls

1c8c5cd2-b660-417d-9355-c0f775a2dbb5  cdrom  cdrom0

 
 
root@gluster02:/media# cd 1c8c5cd2-b660-417d-9355-c0f775a2dbb5/
 
 
root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# mkdir data

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# cd data

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/data# mkdir export

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/data# mkdir export-ns
 

 

Gluster01 :

root@gluster01:/# cp /etc/glusterfs/glusterfsd.vol /etc/glusterfs/glusterfsd.vol_orig

root@gluster01:/# cat /dev/null > /etc/glusterfs/glusterfsd.vol

root@gluster01:/# nano /etc/glusterfs/glusterfsd.vol

 

Le fichier glusterfsd.vol
volume posix

  type storage/posix

  option directory /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/data/export

end-volume


volume locks

  type features/locks

  subvolumes posix

end-volume


volume brick

  type performance/io-threads

  option thread-count 8

  subvolumes locks

end-volume


volume server

  type protocol/server

  option transport-type tcp

  option auth.addr.brick.allow *            

  subvolumes brick

end-volume

 

 

Gluster02 :

root@gluster02:/# cp /etc/glusterfs/glusterfsd.vol /etc/glusterfs/glusterfsd.vol_orig

root@gluster02:/# cat /dev/null > /etc/glusterfs/glusterfsd.vol

root@gluster02:/# nano /etc/glusterfs/glusterfsd.vol
 
 
Le fichier glusterfsd.vol 
volume posix

  type storage/posix

  option directory /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/data/export

end-volume


volume locks

  type features/locks

  subvolumes posix

end-volume


volume brick

  type performance/io-threads

  option thread-count 8

  subvolumes locks

end-volume


volume server

  type protocol/server

  option transport-type tcp

  option auth.addr.brick.allow *

  subvolumes brick

end-volume

 

Configuration du client glusterfs

Gluster01 :

root@gluster01:/# cd /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# mkdir glusterfs

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# cp /etc/glusterfs/glusterfs.vol /etc/glusterfs/glusterfs.vol_orig

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# cat /dev/null > /etc/glusterfs/glusterfs.vol

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1# nano /etc/glusterfs/glusterfs.vol

 

 Le fichier glusterfs.vol
volume gluster01

  type protocol/client

  option transport-type tcp

  option remote-host gluster01.yakakliker.org

  option remote-subvolume brick

end-volume


volume gluster02

  type protocol/client

  option transport-type tcp

  option remote-host gluster02.yakakliker.org

  option remote-subvolume brick

end-volume


volume replicate

  type cluster/replicate

  subvolumes gluster01 gluster02

end-volume


volume writebehind

  type performance/write-behind

  option window-size 1MB

  subvolumes replicate

end-volume


volume cache

  type performance/io-cache

  option cache-size 512MB

  subvolumes writebehind

end-volume

 

Gluster02 :

root@gluster02:/# cd /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# mkdir glusterfs

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# cp /etc/glusterfs/glusterfs.vol /etc/glusterfs/glusterfs.vol_orig

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# cat /dev/null > /etc/glusterfs/glusterfs.vol

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5# nano /etc/glusterfs/glusterfs.vol

 

Le fichier glusterfs.vol
volume gluster01

  type protocol/client

  option transport-type tcp

  option remote-host gluster01.yakakliker.org

  option remote-subvolume brick

end-volume


volume gluster02

  type protocol/client

  option transport-type tcp

  option remote-host gluster02.yakakliker.org

  option remote-subvolume brick

end-volume


volume replicate

  type cluster/replicate

  subvolumes gluster01 gluster02

end-volume


volume writebehind

  type performance/write-behind

  option window-size 1MB

  subvolumes replicate

end-volume


volume cache

  type performance/io-cache

  option cache-size 512MB

  subvolumes writebehind

end-volume

 

Gluster01 :

root@gluster01:~# /etc/init.d/glusterfs-server start   

root@gluster01:~# glusterfs -f /etc/glusterfs/glusterfs.vol /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/glusterfs/

Gluster02 :

root@gluster02:~# /etc/init.d/glusterfs-server start

root@gluster02:~# glusterfs -f /etc/glusterfs/glusterfs.vol /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs/
 

 

Petit test :

Gluster01 :

root@gluster01:~# mkdir /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/glusterfs/test

Gluster02 :

root@gluster02:~# cd /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs/

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs# ls

test

 

Paramétrage du montage automatique du volume Glusterfs

Gluster01 :

root@gluster01:~# nano /etc/rc.local

Rajouter cette ligne :

/bin/mount -t glusterfs /etc/glusterfs/glusterfs.vol /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/glusterfs/

 

Gluster02 :

root@gluster02:~# nano /etc/rc.local

Rajouter cette ligne :

/bin/mount -t glusterfs /etc/glusterfs/glusterfs.vol /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs/
 

Redémarrage des 2 Glusters pour vérifier le montage automatique.

 

Vérification :

Gluster01 :

root@gluster01:~# mount

/dev/vda1 on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

tmpfs on /tmp type tmpfs (rw)

/dev/mapper/Vg01-volume01 on /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1 type ext4 (rw,noexec,_netdev,acl,user_xattr,usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0)

fusectl on /sys/fs/fuse/connections type fusectl (rw)

/etc/glusterfs/glusterfs.vol on /media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/glusterfs type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)

 

Gluster02 :

root@gluster02:~# mount

/dev/vda1 on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

tmpfs on /tmp type tmpfs (rw)

/dev/mapper/vg01-volume01 on /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5 type ext4 (rw,noexec,_netdev,acl,user_xattr,usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0)

fusectl on /sys/fs/fuse/connections type fusectl (rw)

/etc/glusterfs/glusterfs.vol on /media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)

 

Test de réplication entre les 2 serveurs

Gluster01 :

root@gluster01:/media/b3da83fc-55ce-4b90-8539-ab95f1f88fc1/glusterfs# mkdir test2
 

Gluster02 :

root@gluster02:/media/1c8c5cd2-b660-417d-9355-c0f775a2dbb5/glusterfs# ls

test  test2

  

 howto05_small.pngCréation des partages dans Openmediavault

 

Sur les 2 Gluster :

partages001.png

partages002.png

 

Création du partage NFS

Sur les 2 Gluster : 

partages003.png 

partages004.png 

partages005.png

partages006.png

 

Création du partage SMB/CIFS

Sur les 2 Gluster :

partages007.png

 

partages008.png

 

partages009.png

partages010.png

 

Petit test depuis une station cliente :

partages013.png

 

On crée un dossier "test3" sur \\gluster01\Documents, on vérifie sur \\gluster02\Documents

partages011.png

 

OK, on a accès aux partages des 2 NAS et la réplication fonctionne entre les 2. Reste l'IP flottante.

 

 

 howto05_small.pngInstallation & configuration du UCARP

 

Sur les 2 Gluster :

root@gluster01:~# apt-get install ucarp

Lecture des listes de paquets... Fait

Construction de l'arbre des dépendances       

Lecture des informations d'état... Fait

Les paquets supplémentaires suivants seront installés : 

  libpcap0.8

Les NOUVEAUX paquets suivants seront installés :

  libpcap0.8 ucarp

0 mis à jour, 2 nouvellement installés, 0 à enlever et 0 non mis à jour.

Il est nécessaire de prendre 165 ko dans les archives.

Après cette opération, 504 ko d'espace disque supplémentaires seront utilisés.

Souhaitez-vous continuer [O/n] ? 

Réception de : 1 http://ftp.fr.debian.org/debian/ squeeze/main libpcap0.8 amd64 1.1.1-2+squeeze1 [131 kB]

Réception de : 2 http://ftp.fr.debian.org/debian/ squeeze/main ucarp amd64 1.5.1-1 [34,2 kB]

165 ko réceptionnés en 2s (67,3 ko/s)

Sélection du paquet libpcap0.8 précédemment désélectionné.

(Lecture de la base de données... 24559 fichiers et répertoires déjà installés.)

Dépaquetage de libpcap0.8 (à partir de .../libpcap0.8_1.1.1-2+squeeze1_amd64.deb) ...

Sélection du paquet ucarp précédemment désélectionné.

Dépaquetage de ucarp (à partir de .../ucarp_1.5.1-1_amd64.deb) ...

Paramétrage de libpcap0.8 (1.1.1-2+squeeze1) ...

Paramétrage de ucarp (1.5.1-1) ...


 

Sur Gluster01 :

root@gluster01:~# nano /etc/network/interfaces 

 

Rajouter sous la configuration eth0 :

  #######################

  # ucarp configuration

  #######################

  # vid : The ID of the virtual server [1-255]

  ucarp-vid 1

  # vip : The virtual address

  ucarp-vip 192.168.1.20

  # password : A password used to encrypt Carp communications

  ucarp-password secret

  # advskew : Advertisement skew [1-255]

  ucarp-advskew 1

  # advbase : Interval in seconds that advertisements will occur

  ucarp-advbase 1

  # master : determine if this server is the master

  ucarp-master yes


# The carp network interface, on top of eth0

iface eth0:ucarp inet static

        address 192.168.1.20

        netmask 255.255.255.0


 

 Sur Gluster02 :

root@gluster02:~# nano /etc/network/interfaces

Rajouter sous la configuration eth0 :

 #########################

 # ucarp configuration

 #########################

 # vid : The ID of the virtual server [1-255]

 ucarp-vid 1

 # vip : The virtual address

 ucarp-vip 192.168.1.20

 # password : A password used to encrypt Carp communications

 ucarp-password secret

 # advskew : Advertisement skew [1-255]

 ucarp-advskew 100

 # advbase : Interval in seconds that advertisements will occur

 ucarp-advbase 1

 # master : determine if this server is the master

 ucarp-master no


# The carp network interface, on top of eth0

iface eth0:ucarp inet static

 address 192.168.1.20

 netmask 255.255.255.0


 

Redémarrer le réseau sur les 2 Gluster.

root@gluster01:~# /etc/init.d/networking restart
root@gluster02:~# /etc/init.d/networking restart

 

 Petit test depuis une station cliente :

[franck@franck-vostro-1720 ~]$ ping 192.168.1.20

PING 192.168.1.20 (192.168.1.20) 56(84) bytes of data.

64 bytes from 192.168.1.20: icmp_seq=1 ttl=62 time=83.9 ms

64 bytes from 192.168.1.20: icmp_seq=2 ttl=62 time=48.1 ms

Petit ifconfig sur Gluster01 :

root@gluster01:~# ifconfig

eth0      Link encap:Ethernet  HWaddr 4e:2c:bd:f4:5c:33  

          inet adr:192.168.1.21  Bcast:192.168.1.255  Masque:255.255.255.0

          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

          RX packets:13663 errors:0 dropped:0 overruns:0 frame:0

          TX packets:7861 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 lg file transmission:1000 

          RX bytes:4995809 (4.7 MiB)  TX bytes:10729310 (10.2 MiB)


eth1      Link encap:Ethernet  HWaddr 72:ba:00:5b:43:c8  

          inet adr:192.168.200.21  Bcast:192.168.200.255  Masque:255.255.255.0

          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

          RX packets:835 errors:0 dropped:0 overruns:0 frame:0

          TX packets:864 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 lg file transmission:1000 

          RX bytes:176484 (172.3 KiB)  TX bytes:184625 (180.2 KiB)


eth0:ucarp Link encap:Ethernet  HWaddr 4e:2c:bd:f4:5c:33              inet adr:192.168.1.20  Bcast:192.168.1.255  Masque:255.255.255.0            UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1


lo        Link encap:Boucle locale  

          inet adr:127.0.0.1  Masque:255.0.0.0

          adr inet6: ::1/128 Scope:Hôte

          UP LOOPBACK RUNNING  MTU:16436  Metric:1

          RX packets:1166 errors:0 dropped:0 overruns:0 frame:0

          TX packets:1166 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 lg file transmission:0 

          RX bytes:290275 (283.4 KiB)  TX bytes:290275 (283.4 KiB)


 

Petit test d'accès au partage :

partages014.png

 

partages015.png

 

Fini, vous avez maintenant 2 NAS accessibles individuellement se répliquant l'un sur l'autre ainsi qu'un système haute disponibilité associant simplicité et fiabilité.

 

 

 howto05_small.pngConclusion

Il est donc possible d'intégrer glusterfs à OMV. Cependant, nous avons là une Debian Squeeze et donc une version 3.0 de glusterfs.

Gluster a beaucoup évolué depuis, il est de plus en plus stable et intègre maintenant une fonctionnalité particulièrement intéressante avec la géo-réplication. Il faudra donc attendre une version OMV tournant sur Wheezy qui permettra alors une intégration glusterfs plus récente.

A surveiller donc et certainement un nouveau tuto à venir...

 

 howto05_small.pngVous en pensez quoi ?


 

{{ iframe{ uri: "http://le_lien" , width: "1024", height: "768", scrolling: "True" } }}   

 

 

Enrichissez Yakakliker en y contribuant vous aussi.

 
Images (65)
Voir 1 - 6 sur 65 images | Voir tout
Aucune description
partages0...  Actions
Aucune description
partages0...  Actions
Aucune description
partages0...  Actions
Aucune description
partages0...  Actions
Aucune description
partages0...  Actions
Aucune description
partages0...  Actions
Commentaires (7)
Affichage de 7 commentaires sur 7: voir tout
Merci Franck pour cet autre bon tuto à l'image du celui proxmoxve-ceph. Je l'ai testé avec une installation sur une wheezy avec la nouvelle version omv 0.6 pas encore disponible. Pour ceux qui veulent tester avec une Debian wheezy voilà le lien pour l'installation : https://flexion.org/posts/2014-06-openmediavault-on-debian.html

Merci encore. Le prochain tuto c'est sur Openstack avec Juju ou Fuel? :-)
Posté 17:23, 13 Aoû 2014
Bonjour,
Juste pour vous dire que la nouvelle version d'OMV 1.0.20 basée sur Debain Wheezy est disponible.

http://sourceforge.net/projects/openmediavault/?source=typ_redirect

Merci. modifié 13:48, 16 Sep 2014
Posté 03:14, 16 Sep 2014
Bonjour Franck,
J'ai essayé de créer le Nas glusterfs avec la nouvelle version omv 1.0.24, pour le rajouter au Cluster Proxmoxve comme stockage externe, en suivant ton tuto. Tout fonctionne jusqu'au : #cp /etc/glusterfs/glusterfsd.vol /etc/glusterfs/glusterfsd.vol_orig

il n'y a pas de fichier glusterfsd.vol mais glusterd.vol
Est ce que ça vient de la nouvelle version du glusterfs?
root@gluster01:~# glusterfs --version
glusterfs 3.2.7 built on Sep 28 2013 18:15:16

Merci.

Une remarque : Ton site est souvent H.S ces derniers temps.
Moula.
Posté 07:50, 2 Oct 2014
Bonjour Moula,

En effet (je suis sur le futur tuto), avec glusterfs 3.2, ça change un peu.
En attendant, reportes toi sur ce tuto :;
http://www.yakakliker.org/index.php?title=Informatique/Cat%C3%A9gorie_:_Virtualisation/Proxmox/Proxmox_2.0/Cluster_Proxmox_%2B_SANs_NFS_Gluster&highlight=gluster

En fait, le fichier conf se crée normalement tout seul (je te confirmerai dans quelques jours). Tu crées ton cluster, tu crées ton volume en indiquant les points de montage et le replica et ça roule .... (enfin ça devrait ) ;-)

Bon maintenant pour le site :
Je vois que monsieur est perspicace ! ;-)
Disons que ces dernières semaines, j'ai tendance à cumuler...

1) Free à décidé de faire un upgrade du DSLAM ... 3 jours hors ligne .... oups !

2) Mon matos (petit budget oblige) est un ensemble de vieux serveurs récupérés, bricolés, sous perf ... et l' EDF n'est pas mon ami ces temps si, donc coupures + vieux matos + absence d'onduleur (ben ça sert a rien dixit my wife) et on se retrouve avec des serveurs qui redémarrent quand ils ont le temps .... donc on attends que monsieur rentre du boulot pour gentiment redémarrer tout ce petit monde.

Bonne nouvelle :
Pour le coup, j'ai vraiment testé Ceph en mode "y a tout en vrac" et je peux confirmer, c'est GENIAL !!!!!! modifié 18:34, 2 Oct 2014
Posté 18:28, 2 Oct 2014
Bonjour Franck,
Merci pour cette réponse.
Pour Mes clusters ProxmoxVE & Ceph sur 6 disques en Locale, fonctionnent très bien. je voulais remplacer mon NAS de FreeNAS par un Cluster externe avec Glusterfs. Merci pour les explications et j'espère que tu va avoir des moyens pour changer ton matos pour ton auto-hébergement et surtout avoir les moyens pour passer à OpenStack & Ceph & OpenVswitch bientôt. La version Juno rc1 est déjà disponible. J'utilise Fuel ou Juju pour le déploiement. Si tu veux qu'on écrive un tuto sur ce projet fais moi signe. Je n'aime pas rédiger les choses tout seul... Merci pour tout.
Posté 06:17, 3 Oct 2014
Bonjour Moula,
Openstack est effectivement dans mes tablettes,il faut jusque que je trouve un peu de matos pour me monter la maquette (je veux une infra de la mort comme ils montrent dans les docs ..) ;-)
Promis, je te fais signe dès que j'ai ce qu'il faut ... (de longues soirées en perspectives ..) ;-)
Posté 19:48, 4 Oct 2014
Glusterfs et Ceph comme SDS pour ProxmoxVE, OpenStack et Hadoop c'est de la balle :-)

http://www.toolinux.com/Red-Hat-devoile-Red-Hat-Storage

La suite Franck?
Posté 17:56, 6 Oct 2014
Affichage de 7 commentaires sur 7: voir tout
Vous devez être connecté pour poster un commentaire.