propriétaire à la haute disponibilité.

Installation de propriétaire Haute disponibilité

Ce que nous allons faire ensuite est de créer une haute disponibilité pour propriétaire. Broycle est un système de stockage et des applications en ligne.

Notre objectif est d’obtenir une parité et une disponibilité transparente pour l’utilisateur. Pour commencer avec ce que nous avons fait, c’est créer deux machines virtuelles d’environ 300 Go pour avoir un grand espace de stockage. Nos machines se trouvent dans différents réseaux avec une adresse IP différente.

La première étape que nous devons faire est de rendre les machines avec connexion entre eux, car la solution que nous avons donnée est que les deux sont dans le même VPN.

Cluster MARIADB

Une fois que nous avons les deux machines virtuelles bloquées dans le VPN, nous allons installer Mariadb sur les serveurs que nous allons utiliser, les bases de données qu’ils seront répliquées.

Nous allons maintenant au premier serveur et ajoutons les référentiels suivants:

#apt-get install software-properties-common#apt-key adv --recv-keys --keyserver keyserver.ubuntu.com 0xcbcb082a1bb943db#add-apt-repository 'deb http://tedeco.fi.upm.es/mirror/mariadb/repo/10.0/debian jessie main'#apt update

ci-dessous nous installons votre galère avec la commande suivante dans tous les serveurs que nous avons pour la haute disponibilité, dans ce cas 2:

#apt install rsync galera mariadb-galera-server

une fois installé, nous allons créer le cluster de la cuisine avec Mariadb, car nous devons créer le  » Galera.cnf « fichier dans » /etc/mysql/conf.d/ « et ajoutez la configuration suivante dans chacun des nœuds:

binlog_format=ROWdefault-storage-engine=innodbinnodb_autoinc_lock_mode=2query_cache_size=0query_cache_type=0bind-address=0.0.0.0# Galera Provider Configurationwsrep_provider=/usr/lib/galera/libgalera_smm.sowsrep_cluster_name="avengers" wsrep_cluster_address="gcomm://10.100.0.10,10.100.0.20" wsrep_sst_method=rsyncwsrep_node_address="10.100.0.10"#

où vous mettez « BIND-ADDRES », nous avons mis l’adresse du VPN, la possibilité de mettre l’adresse « 0.0.0.0 » afin qu’elle permet à toutes les connexions de la machine.

Passons maintenant à MySQL sur tous les nœuds en exécutant la commande suivante:

# systemctl stop mysql

Une fois que cela est fait, nous devons avoir un soin particulier Dans l’étape suivante, puisque nous devons avoir un fichier exactement égal dans tous les nœuds, reproduisant celui qui nous intéresse le plus dans tous les autres, ce que nous allons commencer le cluster. Le fichier de configuration sur lequel nous vous référons dans ce cas est « /etc/mysql/debian.cnf. »

FAITS Ceci est passé pour démarrer le cluster. Pour eux, nous utilisons la commande suivante uniquement dans un nœud:

# /etc/init.d/mysql start --wsrep_new_cluster --wsrep-cluster-address="gcomm://10.100.0.10,10.100.0.20"

alors, dans les autres nœuds, nous démarquons MySQL

# systemctl start mysql

et dans le premier nœud, nous devons » désactiver « mysql et le refuser avec SystemD:

Ceci La dernière partie du démarrage du cluster devra le faire chaque fois que tous les nœuds tombent et que nous voulons redémarrer le cluster à nouveau. Il est très important de faire le « -wsrep_new_cluster » uniquement sur une machine et uniquement si nécessaire, car il n’y a pas d’autre noeud commencé, car sinon, nous aurions une fourchette

GLUSTERFS

Une continuation Ce que nous allons faire est Impalar Glusterfs, qui ne fournira pas la réplication des fichiers entre les serveurs, de sorte que tout ce qui soit enregistré sur un serveur sera reproduit dans les autres.

Tout d’abord Ce que nous devrions faire est d’installer dans ce cas dans les deux nœuds que nous utilisons le package « Glusterfs-Server »:

#apt install glusterfs-server

Une fois installé, nous créons le Dossier qui répliquera entre les nœuds:

#mkdir /gluster

alors nous allons à « /etc/glusterfs/glusterfsd.vol » et collez le contenu suivant. Ceci doit être fait dans les deux nœuds:

volume posix type storage/posix option directory /glusterend-volumevolume locks type features/posix-locks subvolumes posixend-volumevolume brick type performance/io-threads option thread-count 8 subvolumes locksend-volumevolume server type protocol/server option transport-type tcp subvolumes brick option auth.addr.brick.allow *end-volumevolume posix type storage/posix option directory /glusterend-volumevolume locks type features/posix-locks subvolumes posixend-volumevolume brick type performance/io-threads option thread-count 8 subvolumes locksend-volumevolume server type protocol/server option transport-type tcp subvolumes brick option auth.addr.brick.allow *end-volume

Une fois que nous avons créé le fichier ce que nous devons faire est de redémarrer le service:

#service glusterfs-server restart

pour l’étape suivante, nous devons créer le fichier « /etc/glusterfs/glusterfs.vol »:

volume node1 type protocol/client option transport-­type tcp option remote­host 10.100.0.10 option remote­-subvolume brick end­-volumevolume node2 type protocol/client option transport-­type tcp option remote­host 10.100.0.20 option remote­-subvolume brick end­-volumevolume replicated_storage type cluster/replicate subvolumes node1 node2end­-volume

Ensuite, pour la sécurité, nous redémarrons le service de Gluster comme nous l’avons fait précédemment.

Pour tester cela fonctionne et connecté à partir du nœud1 La commande suivante avec l’adresse IP du nœud2:

# gluster peer probe 10.100.0.20peer probe: success. 

Nous allons maintenant créer le volume qui sera répliqué. Nous devons exécuter la commande suivante uniquement dans une machine et être automatiquement placée dans l’autre:

#gluster volume create owncloud replica 2 transport tcp 10.100.0.10:/gluster 10.100.0.20:/gluster force

Démarrer le volume que nous avons créé précédemment, juste besoin de Faites-le dans une machine:

# gluster volume start owncloudvolume start: owncloud: success

Pour réussir, nous avons dû arrêter le volume et recommencer

# gluster volume stop owncloud# gluster volume start owncloud

Enfin avec GLUSTER Ce que nous allons faire est de monter les volumes dans les deux machines comme suit:

#mount localhost:owncloud /var/www/html/ -t glusterfs

Nous avons déjà tous préparés et la seule chose que ce soit, il serait d’installer propriétaire de propriétaire d’une machine habituelle dans une machine et sera automatiquement effectué de l’autre.

Manuel Jesús commence González et Gabriel Amador Garcia.

Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *