File store - Redundáns fájl tároló
A kiszolgálók célja, hogy olyan megosztott háttértárat szolgáltasson elsősorban a web kiszolgálók számára, amelynek segítségével nem szükséges a webszerverek web kiszolgálásban résztvevő fájljait kézzel szinkronban tartani. Ezt a GlusterFS szolgáltatja. Működését tekintve vannak háttértár kiszolgálók, amelyek egymás között szinkronizálják az adatokat, továbbá vannak kliensek, amelyek az erre a szolgáltatásra épülő protokollon keresztül kommunikálnak a háttértárakkal. A kliensek a publikus web kiszolgálók Csomag telepítés yum search centos-release-gluster legmagasabb sorszámú kiválasztása, majd: yum install centos-release-gluster312 yum install glusterfs gluster-cli glusterfs-libs glusterfs-server systemctl enable glusterd.service systemctl start glusterd.service Megosztott tár terület előkészítése pvcreate /dev/vdb vgcreate vg02 /dev/vdb lvcreate -L 25G -n web vg02 mkfs.xfs /dev/vg02/web mkdir -p /bricks/web /etc/fstab kiegészítése: /dev/vg02/web /bricks/web xfs defaults 0 0 Cluster és a megosztott kötet beállításai: gluster peer probe fs02.local gluster peer status mkdir -p /bricks/web/brick gluster volume create glustervol1 replica 2 transport tcp fs01.local:/bricks/web/brick fs02.lovi.local:/bricks/web/brick gluster volume start glustervol1 gluster volume info all Performancia paraméterezés /var/lib/glusterd/groups/virt performance.quick-read=off Kernel konfiguráció /etc/sysctl.d/kerneltuning.conf vm.swappiness = 10 A GlusterFS folyamatosan ellenőrzi a kiajánlott háttértáron történt változásokat és a módosításokat automatikusan szinkronizálja. DMZ hálózatból engedélyezett tűzfal portok:Hálózati szolgáltatások
Gluster FS
performance.read-ahead=off
performance.io-cache=off
performance.low-prio-threads=32
network.remote-dio=enable
cluster.eager-lock=enable
cluster.quorum-type=auto
cluster.server-quorum-type=server
cluster.data-self-heal-algorithm=full
cluster.locking-scheme=granular
cluster.shd-max-threads=8
cluster.shd-wait-qlength=10000
features.shard=on
user.cifs=off
nfs.trusted-sync: on
performance.cache-size: 1GB
performance.io-thread-count: 16
performance.write-behind-window-size: 8MB
performance.readdir-ahead: on
client.event-threads: 8
server.event-threads: 8
cluster.quorum-type: auto
cluster.server-quorum-type: server
cluster.server-quorum-ratio: 51%
net.ipv4.tcp_max_syn_backlog = 512
net.ipv4.ip_forward = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_slow_start_after_idle = 0
net.ipv4.tcp_fin_timeout = 15
net.core.somaxconn = 65535
vm.dirty_ratio = 5
vm.dirty_background_ratio = 2Redundancia megvalósítása
Tűzfal szabályok
GlusterFS management portok: 24007-24008/tcp, 24009-24010/tcp, GlusterFS kliens portok: 49152-49251/tcp