반응형
Notice
Recent Posts
Recent Comments
Link
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
Archives
Today
Total
관리 메뉴

/var/log/messages

error: cluster.join: [Errno 2] No such file or directory: '/etc/corosync/corosync.conf 본문

SUSE

error: cluster.join: [Errno 2] No such file or directory: '/etc/corosync/corosync.conf

로만로만 2024. 3. 18. 14:01
반응형

crm cluster init 명령을 사용하여 node01에서 클러스터가 성공적으로 생성이 되었습니다.

 

node01:~ # crm status
Cluster Summary:
  * Stack: corosync
  * Current DC: node01 (version 2.1.2+20211124.ada5c3b36-150400.4.14.9-2.1.2+20211124.ada5c3b36) - partition with quorum
  * Last updated: Thu Oct 26 13:44:44 2023
  * Last change:  Thu Oct 26 13:27:44 2023 by root via crm_node on node01
  * 1 node configured
  * 0 resource instances configured

Node List:
  * Online: [ node01 ]

Full List of Resources:
  * No resources

 

node02가 클러스터에 연결하려고 할 때 csync2 실행 실패 및 클러스터 연결 오류에 대한 경고가 발생합니다.

node02:~ # crm cluster join
INFO: Join This Node to Cluster:
  You will be asked for the IP address of an existing node, from which
  configuration will be copied.  If you have not already configured
  passwordless ssh between nodes, you will be prompted for the root
  password of the existing node.

IP address or hostname of existing node (e.g.: 192.168.1.1) []node01
INFO: The user 'hacluster' will have the login shell configuration changed to /bin/bash
Continue (y/n)? y
INFO: Generating SSH key for hacluster
INFO: Configuring SSH passwordless with hacluster@node01
INFO: BEGIN Configuring csync2

WARNING: csync2 run failed - some files may not be sync'd
INFO: END Configuring csync2
INFO: Merging known_hosts
INFO: BEGIN Probing for new partitions
INFO: END Probing for new partitions
ERROR: cluster.join: [Errno 2] No such file or directory: '/etc/corosync/corosync.conf'

 

그런 다음 node01에서 csync2 상태를 확인했습니다.

node01:~ # csync2 -x
Peer did provide a wrong SSL X509 cetrificate.
이 문제를 해결하는 일반적인 절차는 'csync2-rm-ssl-cert $PEERNAME'를 실행하여, 이전 항목을 제거하는 것입니다. 하지만 아래 오류가 표시될 수 있습니다.

node01:~ # csync2-rm-ssl-cert node2
Certificate for 'node2' not in local database.

 

원인

서로 다른 SSL X509 인증서로 인한 db의 불일치

csync2는 컴퓨터들 사이에 파일을 주고받을 때 SSL X509 인증서를 사용합니다.

이 인증서를 통해, 파일을 보내는 컴퓨터와 받는 컴퓨터가 서로를 신뢰할 수 있고,

중간에 누군가가 정보를 가로채지 못하게 합니다. 노드가 새롭게 시스템을 설치하고 클러스터에 재가입할 때 새로운 인증서를 발급받아 기존 클러스터 멤버들과의 인증서가 서로 다르게 되기 때문입니다.

 

해결

다음 명령을 사용하여 이전 항목 :(NOTE를 삭제합니다. SLES12, 15SP2의 경우 VERSION=3)

# echo "DELETE FROM x509_cert WHERE peername='HOST2';" | sqlite${VERSION} /var/lib/csync2/$(echo $HOSTNAME | tr [:upper:] [:lower:]).db${VERSION}

 

node01:~ # ll /var/lib/csync2/
total 44
-rw-r--r-- 1 root root 45056 Mar 18 10:50 node01.db3
node01:~ # cat /etc/os-release | grep SUSE
PRETTY_NAME="SUSE Linux Enterprise Server 15 SP2"

node01: # echo "DELETE FROM x509_cert WHERE peername='node02';" |sqlite3 /var/lib/csync2/$(echo $HOSTNAME | tr [:upper:] [:lower:]).db3

 

node02에서 클러스터에 다시 연결하면 성공합니다.

node02:~ # crm cluster join
INFO: Join This Node to Cluster:
  You will be asked for the IP address of an existing node, from which
  configuration will be copied.  If you have not already configured
  passwordless ssh between nodes, you will be prompted for the root
  password of the existing node.

IP address or hostname of existing node (e.g.: 192.168.1.1) []node01
INFO: BEGIN Configuring csync2
INFO: END Configuring csync2
INFO: Merging known_hosts
INFO: BEGIN Probing for new partitions
INFO: END Probing for new partitions
Address for ring0 [192.168.XXX.XXX]192.168.XXX.XXX
INFO: Hawk cluster interface is now running. To see cluster status, open:
INFO:   https://192.168.XXX.XXX:7630/
INFO: Log in with username 'hacluster', password 'XXXXX'
WARNING: You should change the hacluster password to something more secure!
INFO: BEGIN Waiting for cluster
..                                                                      
INFO: END Waiting for cluster
INFO: BEGIN Reloading cluster configuration
INFO: END Reloading cluster configuration
INFO: Done (log saved to /var/log/crmsh/crmsh.log)

 

클러스터 상태 확인

node02:~ # crm status
Cluster Summary:
  * Stack: corosync
  * Current DC: node01 (version 2.1.2+20211124.ada5c3b36-150400.4.14.9-2.1.2+20211124.ada5c3b36) - partition with quorum
  * Last updated: Thu Oct 26 14:10:32 2023
  * Last change:  Thu Oct 26 14:05:22 2023 by hacluster via crmd on node01
  * 2 nodes configured
  * 0 resource instances configured

Node List:
  * Online: [ node01 node02 ]

Full List of Resources:
  * No resources

'SUSE' 카테고리의 다른 글

4-way handshaking  (0) 2024.04.01
3-way handshaking  (0) 2024.04.01
xfs 파일시스템 '안전하게' 복구하기  (0) 2024.02.05
파티션 테이블 복제(백업)하기  (0) 2024.01.30
XFS 에러  (2) 2024.01.30