Configurar la estrategia de recuperación del CLUSTER

Imagen de deathUser

Una vez probados los recursos, se puede realizar la creación del servicio sobre el cluster, para esto hacemos clic en la opción “Add” de la sección “Service Groups” como se muestra en la Ilustración 14.

Creación Service Group
Ilustración 14: Creación Service Group

En la pantalla mostrada en la Ilustración 15, deberemos especificar un nombre del servicio, marcar la opción de iniciar automáticamente el servicio, en caso contrario el servicio no se iniciará al arrancar el cluster, un failover domain (el que creamos en pasos anteriores) y agregar los recursos que creamos previamente.

Creación Service Group
Ilustración 15: Creación Service Group

Para agregar un recurso al “Service Group” que estamos creando, hacemos clic en el botón “Add Resource” y seleccionamos la dirección IP creada previamente 172.16.1.200, como se muestra en la Ilustración 16.

Agregar recurso dirección IP
Ilustración 16: Agregar recurso dirección IP

Agregaremos un recurso “hijo” haciendo clic en el botón “Add child resource” y seleccionaremos el script initpg que creamos anteriormente como se muestra en la Ilustración 17.

Agregar recurso script
Ilustración 17: Agregar recurso script

Una vez agregados los dos recursos tendremos listo nuestro “Service Group”, hacemos clic en el botón “Submit” y lo habremos creado.

Una vez creado el servicio, este debería iniciarse automáticamente, como se muestra en la Ilustración 18.

Servicio Iniciado en el cluster
Ilustración 18: Servicio Iniciado en el cluster

Si el servicio no se inicia automáticamente, debemos seleccionarlo y hacer clic en la opción “Start”, de aquí en adelante el proceso del cluster se hará cargo del monitoreo de los distintos recursos que componen el servicio y los re-ubicará entre los nodos disponibles de ser necesario para mantener en funcionamiento el servicio.

Hay que recordar que los dispositivos de “Fencing” (Fence Devices) son una pieza clave en el hardware del cluster, para mantener aislados los nodos que presenten fallas y que potencialmente podrían causar malos funcionamientos del cluster, por lo que debería considerarse su uso en un entorno de producción.

Comentarios

"Hay que recordar que los

Imagen de Epe

"Hay que recordar que los dispositivos de “Fencing” (Fence Devices) son una pieza clave en el hardware del cluster, para mantener aislados los nodos que presenten fallas y que potencialmente podrían causar malos funcionamientos del cluster, por lo que debería considerarse su uso en un entorno de producción."

Nuevamente me quedo con las ganas de ver un caso de ejemplo de fencing

Saludos
epe

EcuaLinux.com

+(593) 9 9924 6504

Servicios en Software Libre

Re:

Imagen de al-serv

Ya casi tengo todo completado y cada vez me gusta más todo esto, lo veo muy comodo jejeje!
Lo que tengo una duda, hay una lista de servicios preconfigurados ( mysql, httpd, etc... ) pero por ejemplo no hay el de sendmail o postfix, etc... eso solo se puede hacer mediante el apartado de script y crear un la ruta hacia el /etc/init.d/sendmail start?? o service sendmail start o como lo arias tu para añadir servicios que no hay en la lista??

Re: últimas aclaraciones sobre el funcionamiento

Imagen de al-serv

perfecto, me queda claro pero tendría que haber la opción de agregar servicios personalizados y no ir creando scripts jejeje! creo que lo que voy hacer es recompilar lucci y agregar en la lista servicios como el de sendmail jejeje pero de momento irte tirando con el script que has hecho pero para sendmail y los demás servicios que me hagan falta :)

Lo que si que he visto y no se si es normal pero nada practico para mi es que, si configuras el " service groups " y apagas un nodo se arranca en el segundo, pero imagínate que el primer nodo lo estas reparando y por lo que sea tienes que reiniciar el segundo nodo mientras que el primero esta apagado, los servicios no se arrancan y no hay manera de iniciarlos manualmente, ( viceversa pasa lo mismo ) si los 2 nodos no están online no puedes reiniciar un nodo mientras el otro esta apagado, tienen que estar los dos online para que puedas reiniciar o apagar uno de los dos y que el otro asuma los servicios! o hay alguna forma de hacerlo???

Es que estoy acostumbrado a heartbeat que todo esto si que lo puedes hacer y en este cluster no al igual como hacer que si se apaga el servidor que esta dando servicios " bruscamente " el segundo nodo no hay manera de que asuma los servicios del primer nodo caído! esto es lo único que me frena en montar este cluster! lo del "fance device" no dispongo de ninguno en mi red como para poder configurar así que no se yo si podre montar este cluster ( asumo que el fance device es un SAI que apaga el servidor cuando queda poca autonomía, y al hacer que se apague bien el segundo nodo arranca bien no??? ) al igual que si el primer nodo se queda bloqueado, congelado, etc... que el segundo nodo no autoarranca....

Espero encarecidamente que me podáis aclarar estos puntos ya que es muy importante para mi y se me esta tirando el tiempo encima para montar estos 2 servidores!! :)

Pues te comento que no he

Imagen de deathUser

Pues te comento que no he tenido la oportunidad de probar RedHat Cluster Suite en la versión 6 de CentOS en producción, en producción lo pude poner en la versión 5 de REDHAT para procesadores P series (en un blade de IBM) y la verdad como era solo un ejercicio no probamos todas las cosas si tengo tiempo de levantar el laboratorio nuevamente experimentaré con todas las cosas que me mencionas, pero en la versión 5 no existían esos problemas, el cluster monitorea todos los nodos y cuando se detecta un nodo no alcanzable o el servicio no reporta correctamente su estado el nodo es "fenceado" o el servicio entra en proceso de recuperación sea lo que sea que esto implique incluso re-ubicar el servicio en otro nodo ...

Si tengo tiempo armaré el laboratorio y experimentaré con lo que tu comentas a ver con que me topo ...

bye
;)

Re:

Imagen de al-serv

eres un crack :)
yo ahora mismo lo estoy probando en maquinas virtuales y son esos los problemas que me encuentro ( todo lo hago con el firewall desactivado y selinux desactivado )

1º con el clustres entre 2 nodos se crea perfecto, se re-ubica si uno lo apagas normalmente pero no si lo apagas a lo brusco, queda todo el rato como que el nodo1 sigue dando el servicio ( aunque en el clustat pone que el nodo1 esta offline pero que el servicio esta running en el nodo1 )

2º si apagas el nodo1 bien salta el servicio al nodo2 sin problemas pero si el nodo2 lo reinicias sin que no hayas levantado el nodo1 el nodo2 ya no levanta los servicios y no hay manera de que se levanten si no arrancas el node1

esto es lo único que no me va, en centos 5 no lo he probado pero me gustaría que fuera en centos 6 :)

Lo que también me he encontrado es que para GFS2 si que han dado buen soporte ya que te deja poner donde es el punto de montaje en cambio con DRBD solo deja que sea primary el nodo que toca pero no te monta nada de nada, supongo que tendré que crear un script para que monte y desmonte esa partición no?? como hijo??

Gracias por tu atención y soporte que esta siendo excelente!!!

Fustrante

Imagen de al-serv

Después de un mes y algo de dura batalla contra el clustre de redhat, al final no voy a optar por esta opción ya que me presenta dudas que no puedo resolver ni tengo soporte para que me ayuden, he mirado todo google, los manuales de redhat enteritos y no consigo que me funcionen las 2 cosas que son importantes para mi;

DRBD no va bien, cuando cierras el primer nodo pasa al segundo pero si incisa el primero no lo pasa al primero y tienes que reiniciar servicio manualmente de drbd en el segundo nodo para que lo pase al primero ( en Heartbeat no pasa eso ) el problema es que el cluster redhat por mucho que le digas que espere unos segundos para cambiar al otro nodo en caso de que caiga el primero, el ni caso, lo pasa tan rápido que el primer nodo cuando esta apagando el sistema no ha detenido el drbd y al detenerlo se encuentra al segundo nodo el primary y es aquí donde esta el problema, que no hay manera de decirle al segundo nodo que se espere un poco ( ojala alguien me dijera que opciones marcar! )

No consigo que al apagar bruscamente el primer nodo el segundo lo detecte como off y automáticamente arranque los servicios, he probado con IPMI, OpenIPMI y no hay manera de que arranque el servicio y lo pueda configurar ni en centos 5 ni centos 6 en una maquina independiente de los nodos para que haga de fence

Hay muchos manuales, todos te dicen una cosa teórica pero que no se si lo han probado porque a la practica eso no hay manera de que vaya

Desisto de montar este cluster, voy a continuar con heartbeat y ya esta, Gracias por vuestra ayuda, si alguien lo monta y consigue montar lo que yo he comentado....

P.D: deathUser los screenshots que muestras del luci son de centos 6 o es la misma versión que utiliza centos 6 así que si a ti te va lo del drbd ( que es lo más importante para mi ) que opciones tienes marcadas y que archivo drbd.conf utilizas?? podrías mostrar el drbd.conf y el cluster.conf??

Las imágenes corresponden al

Imagen de deathUser

Las imágenes corresponden al CentOS 6 disponible en Agosto del 2012 que fue cuando armé ese laboratorio, mismo que se montó para un curso de PostgreSQL.

No tengo disponible el cluster.conf ya que borré las máquinas virtuales por falta de espacio y solo me quedó el pequeño documento. No recuerdo haber creado ningún archivo drbd.conf ...

bye
;)