Proprietà in alta disponibilità.

Pronuncloud Installazione Alta disponibilità

Ciò che dovremo fare dopo è creare un’elevata disponibilità per il proprioCloud. Il proprioCloud è un sistema di archiviazione e applicazioni online.

Il nostro obiettivo è quello di ottenere una parità e la disponibilità trasparente per l’utente. Per iniziare con ciò che abbiamo fatto è creare due macchine virtuali di circa 300 GB ciascuna per avere un grande spazio di archiviazione. Le nostre macchine si trovano in diverse reti con un indirizzo IP diverso.

Il primo passo dobbiamo fare è creare le macchine con connessione tra di loro, per questo la soluzione che abbiamo dato è che entrambi sono nella stessa VPN.

Mariadb cluster

Una volta che abbiamo le due macchine virtuali bloccate nella VPN procederemo a installare Mariadb sui server che useremo, i database saranno replicati.

Ora andiamo al primo server e aggiuniamo i seguenti repository:

#apt-get install software-properties-common#apt-key adv --recv-keys --keyserver keyserver.ubuntu.com 0xcbcb082a1bb943db#add-apt-repository 'deb http://tedeco.fi.upm.es/mirror/mariadb/repo/10.0/debian jessie main'#apt update

Qui sotto installiamo la cambusa con il seguente comando in tutti i server che abbiamo per un’elevata disponibilità, in questo caso 2:

#apt install rsync galera mariadb-galera-server

una volta installato creeremo il cluster di galevole con Mariadb, per questo dobbiamo creare ” Galera.cnf “File in” /etc/mysql/conf.d/ “e aggiungi la seguente configurazione in ciascuno dei nodi:

binlog_format=ROWdefault-storage-engine=innodbinnodb_autoinc_lock_mode=2query_cache_size=0query_cache_type=0bind-address=0.0.0.0# Galera Provider Configurationwsrep_provider=/usr/lib/galera/libgalera_smm.sowsrep_cluster_name="avengers" wsrep_cluster_address="gcomm://10.100.0.10,10.100.0.20" wsrep_sst_method=rsyncwsrep_node_address="10.100.0.10"#

Dove si inseriscono “BIND-ADDRES” Abbiamo inserito l’indirizzo della VPN, c’è anche l’opzione per inserire l’indirizzo “0.0.0.0” in modo che consente a tutti i collegamenti della macchina.

Ora procediamo a mysql su tutti i nodi eseguendo il seguente comando:

# systemctl stop mysql

Una volta fatto, dobbiamo avere una cura speciale Nel passaggio seguente, dal momento che dobbiamo avere un file esattamente uguale in tutti i nodi, replicando quello che ci interessa più in tutti gli altri, che è che avviare il cluster. Il file di configurazione a cui ci riferiamo in questo caso è “/etc/mysql/debian.cnf.”

fatti sono proceduti per avviare il cluster. Per loro usiamo il seguente comando solo in un nodo:

quindi, negli altri nodi avviamo mysql

# systemctl start mysql

E nel primo nodo, dobbiamo” disattivare “MySQL e riaccenderlo di nuovo con SystemD:

Questo L’ultima parte dell’avvio del cluster dovrà farlo quando tutti i nodi cadono e vogliamo riavviare il cluster. È molto importante fare “-wsrep_new_cluster” solo su una macchina e solo quando necessario perché non c’è altro nodo è stato avviato, dal momento che se non, avremmo un forcella

GLUSTFS

una continuazione ciò che faremo è impalar gllusterfs, che non fornirà la replica dei file tra i server, quindi tutto ciò che viene salvato su un server verrà replicato negli altri.

Prima di tutto Ciò che dovremmo fare è installare in questo caso nei due nodi che utilizziamo il pacchetto “Glusterfs-Server”:

#apt install glusterfs-server

Una volta installato, creiamo il Cartella che replica tra i nodi:

#mkdir /gluster

Allora andiamo a “/etc/glusterfs/glterfsd.vol” e incolla il contenuto successivo. Questo deve essere fatto in entrambi i nodi:

volume posix type storage/posix option directory /glusterend-volumevolume locks type features/posix-locks subvolumes posixend-volumevolume brick type performance/io-threads option thread-count 8 subvolumes locksend-volumevolume server type protocol/server option transport-type tcp subvolumes brick option auth.addr.brick.allow *end-volumevolume posix type storage/posix option directory /glusterend-volumevolume locks type features/posix-locks subvolumes posixend-volumevolume brick type performance/io-threads option thread-count 8 subvolumes locksend-volumevolume server type protocol/server option transport-type tcp subvolumes brick option auth.addr.brick.allow *end-volume

Una volta creato il file ciò che dobbiamo fare è riavviare il servizio:

#service glusterfs-server restart

Per il passaggio successivo dobbiamo creare il file “/etc/glusterfs/glterfs.vol”:

volume node1 type protocol/client option transport-­type tcp option remote­host 10.100.0.10 option remote­-subvolume brick end­-volumevolume node2 type protocol/client option transport-­type tcp option remote­host 10.100.0.20 option remote­-subvolume brick end­-volumevolume replicated_storage type cluster/replicate subvolumes node1 node2end­-volume

Quindi per la sicurezza riavviamo il servizio di GlusLti come abbiamo fatto in precedenza.

Per testare che funziona e collegato eseguire dal nodo1 il seguente comando con l’indirizzo IP del nodo2:

# gluster peer probe 10.100.0.20peer probe: success. 

Ora creeremo il volume che verrà replicato. Dobbiamo eseguire il seguente comando solo in una macchina e verrà automaticamente inserito nell’altro:

#gluster volume create owncloud replica 2 transport tcp 10.100.0.10:/gluster 10.100.0.20:/gluster force

Quindi avviare il volume che abbiamo creato in precedenza, è solo necessario Fallo in una macchina:

# gluster volume start owncloudvolume start: owncloud: success

Per avere successo abbiamo dovuto fermare il volume e avviarlo di nuovo

# gluster volume stop owncloud# gluster volume start owncloud

Infine con la scrostazione ciò che faremo è montare i volumi in entrambe le macchine come segue:

#mount localhost:owncloud /var/www/html/ -t glusterfs

Abbiamo già tutti preparato E l’unica cosa che sarebbe stata, sarebbe installare il proprio cloud in un modo abituale in una macchina e verrà automaticamente fatto nell’altro.

Manuel Jesús inganna González e Gabriel Amador Garcia. P Igienico

Leave a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *