クラスタの開始
全体を停止させていたクラスタ構成のシステムを開始する手順を示します。
なお、ここではノードやコンテナの構成および設定などについて、停止前から変更を加えていないことを前提としています。
注意事項
3台数構成の swarm クラスタでは2台以上のノードで docker が開始しないと、クラスタノードの構成と各コンテナの起動は始まりません。 以下に説明する手順においても、途中までは各コンテナの動作は始まりませんので注意してください。
また、いくつかのコンテナには以下のような依存関係があり、依存するコンテナが正常に動作していないと起動しないようになっています。
コンテナ | 依存するコンテナ |
---|---|
kompira | redis, postgres, rabbitmq |
kengine | redis, postgres, rabbitmq |
jobmngrd | rabbitmq |
たとえば、kompira や kengine コンテナは redis, postgres, rabbitmq コンテナに依存していますので、それらが正常に動作するまで起動に時間がかかったり、状況によってはコンテナの再起動を自動的に何度か繰り返す場合があります。通常であれば数分程度で安定しますので、一時的なコンテナの再起動などがあっても静観するようにしてください。
開始失敗時の対策
全てのノードを起動してから、5分以上経過してもいずれかのコンテナが正常に起動していない(コンテナの起動に失敗する、コンテナが再起動を繰り返す)ような場合は、システムに何らかの異常をきたしている可能性があります。そのような場合、以下を参考に対策してみてください。
- 一度クラスタ全体を停止させてから、クラスタ全体の開始を再度試してみてください。
- それでも状況が改善しない場合は、トラブルシュートを参考にして、システムの診断を行なって回復手順を試してみてください。
- それでも状況が改善しない場合は、サポート窓口またはコミュニティサイトにお問い合わせください。
クラスタ開始手順
クラスタを構成するノードを順番に起動させてください。
【要確認】このとき、可能であれば最後に停止させたノードから起動させてください。
【要確認】なお、各ミドルウェア (glusterfs, docker など) がすべて自動起動するように構成されている場合は、クラスタを構成する全てのノードを一度に起動させても問題ありませんが、各ノード起動による状態の変遷を確認しながらクラスタを開始することを推奨します。
各ノードを、ここでは ke2-server1, ke2-server2, ke2-server3 の順で起動するとした場合、以下のような流れになります。
- ke2-server1 起動:
- ノードの正常起動を確認
- ※ Pgpool-II/PostgreSQL の起動とオンラインリカバリ (primary ノードの起動)
- ke2-server2 起動:
- ノードの正常起動を確認
- 共有ファイルシステムのマウント
- ※ Pgpool-II/PostgreSQL の起動とオンラインリカバリ (standby ノードの起動)
- docker の起動 (共有ファイルシステムとデータベースを確認してから、ke2-server1 もここで起動します)
- クラスタノードのステータスを確認 (2台が Ready になっている)
- コンテナの開始を確認 (2台のノードでコンテナが開始している)
- ke2-server3 起動:
- ノードの正常起動を確認
- 共有ファイルシステムのマウント
- ※ Pgpool-II/PostgreSQL の起動とオンラインリカバリ (standby ノードの起動)
- docker の起動
- クラスタノードのステータスを確認 (3台が Ready になっている)
- コンテナの開始を確認 (全てのノードでコンテナが開始している)
- 全体のステータスを確認
※ 手順「pgpool-II/PostgreSQL の起動とオンラインリカバリ」は、外部データベースを利用した構成では不要です。
ノードの正常起動を確認
クラスタを構成するノードが正常に起動していることを、必要に応じて確認してください。
- SSH またはコンソールで対象ノードにログインできる。
- ホスト名およびネットワークアドレスが正しく構成されている。
- 所属ネットワークへの導通(例えばデフォルトゲートウェイへの ping)が確認できる。
- 2台目以降のノードを起動した場合は、クラスタを構成するノード間の導通についても確認する。
共有ファイルシステムのマウント
Kompira クラスタが利用している共有ファイルシステムをマウントしてください。 ここでは glusterfs を利用して構成している場合の例を示します。
ただし、起動ノードが 1 台の段階ではマウント処理はできません。2台のノード起動後にマウントするようにしてください。
-
glusterd サービスを起動してください。
- glusterd サービスの起動自体はノードが 1 台の段階でも実施することができます。
$ sudo systemctl start glusterd
- なお GlusterFS の準備 を参考に glusterfs を構築している場合は自動起動しているはずです。
- glusterd サービスの起動自体はノードが 1 台の段階でも実施することができます。
-
glusterfs ボリュームをマウントしてください。
- 自動マウントする設定をしている場合でも、マウントされていることを必ず確認してください。
- マウントされていない場合は、例えば mount コマンドを用いて手動でマウントしてください(マウントポイントは構成に合わせてください)。
$ sudo mount /mnt/gluster
少なくとも 2台の glusterfs ノードが起動していない段階では、マウントに失敗することに注意してください。
$ sudo mount /mnt/gluster
Mount failed. Check the log file for more details.
Pgpool-II/PostgreSQL の起動とオンラインリカバリ
注意: 外部データベースを利用してシステムを構成している場合は、この手順はスキップしてください。ただし、クラスタを開始するときは、事前に外部データベースが正常に動作していて接続可能な状態であることを確認するようにしてください。
Kompira クラスタを構成しているノード上で(docker コンテナ外部で) Pgpool-II/PostgreSQL クラスタも構成している場合は、docker を起動する前に Pgpool-II/PostgreSQL の起動とオンラインリカバリを実施してください。
- 1台目のノードを起動した段階:
- postgreSQL を起動してください。
- 【重要】postgresql が primary となるノード(例えば最後に停止したノード)を、1台目のノードとして起動してください。
- または、このノードの postgresql が primary になるように起動してください。
- 例えば、pgsql12 以降では $PGDATA/standby.signal を削除してから起動してください。
- Pgpool-II を起動してください。
$ sudo systemctl start pgpool
- 詳細については Pgpool-II の準備 の「Pgpool-II の起動」を参考にしてください。
- postgreSQL を起動してください。
- 2台目以降のノードを起動した段階:
-
Pgpool-II を起動してください。
$ sudo systemctl start pgpool
-
Pgpool-II で当該ノードの postgresql に対するオンラインリカバリを実施してください。ここで、$CLUSTER_VIP は Pgpool-II で使用する仮想IPアドレスを、{ノードID} はオンラインリカバリする対象のノードIDを指定してください。
$ pcp_recovery_node -h $CLUSTER_VIP -p 9898 -U pgpool -n {ノードID} -W
-
詳細については Pgpool-II の準備 の「スタンバイサーバのオンラインリカバリ」を参考にしてください。
-
docker の起動
起動したノードで docker が起動していない場合(または自動起動しないように設定している)は、以下のように開始してください。 なお、Swarm クラスタの準備 を参考にクラスタを構築している場合は、docker は自動起動するようになっています。
$ sudo systemctl start docker
共有ファイルシステムやデータベースが外部構成でも自動起動する設定にもなっていない(自動起動しないようにしている)場合は、docker についても自動起動しないように構成することも検討してみてください。docker を含めて2台以上のノードが起動してから正常なクラスタ動作を開始できるサービスが多いので、2台のノードを起動してから各サービスを手動で開始する手順をとることで、各手順ごとに状態を確認しながら作業することが出来るようになります。
クラスタノードのステータスを確認
2台以上のノードを起動して docker を開始したら、docker node ls コマンドを用いてクラスタノードの状態を確認してください。 ただし、ステータスが取得できるようになるのに、ノード起動後少し時間がかかる場合があるので注意してください。
例えば、2台目のノードを起動したあと以下のように 2 台の STATUS が "Ready" になり、そのうち一台の MANAGER STATUS が "Leader" になるはずです。 また、まだ起動していない3台目のノードについては、STATUS が "Down" となり MANAGER STATUS が "Unreachable" となっていることが分かります。
$ docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
l96i39jjjq8ntkzu2p2vvejvf * ke2-server1 Ready Active Reachable 26.1.4
sw6kopnwous6gfz0zg1qcp1ho ke2-server2 Ready Active Leader 26.1.4
0i62egrvpwj0lpittkx9dw9na ke2-server3 Down Active Unreachable 26.1.4
3台目のノードを起動したあとであれば、以下のようにすべてのノードの STATUS が "Ready" になるはずです。
$ docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
l96i39jjjq8ntkzu2p2vvejvf * ke2-server1 Ready Active Reachable 26.1.4
sw6kopnwous6gfz0zg1qcp1ho ke2-server2 Ready Active Leader 26.1.4
0i62egrvpwj0lpittkx9dw9na ke2-server3 Ready Active Reachable 26.1.4
なお、1台目のノードを起動しただけの時点では、マネージャノード数が足りずに以下のようにエラーになります。
$ docker node ls
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader.
It's possible that too few managers are online. Make sure more than half of the managers are online.
コンテナの開始を確認
各ノードでクラスタノードの状態を確認できたら、docker service ps コマンドを用いてコンテナの開始状況を確認してください。このコマンドは終了しているコンテナの情報も表示するため、ここでは以下のように実行中となるはずのコンテナだけを表示して確認しています。
$ docker service ps -f desired-state=running $(docker service ls -q)
なお、このコマンドは docker が正常に開始している任意のノードで実行できます。
例えば、2台目のノードを起動したあとにコンテナが正常に起動を開始している状況の例を以下に示します。 3台目のノードが起動していないために、NODE は空欄になっており(当該コンテナがどこでも起動していない)、ERROR には "no suitable node" などのエラーが表示されていることがわかります。
$ docker service ps -f desired-state=running $(docker service ls -q)
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
i85kdpqhato3 ke2_jobmngrd.1 kompira.azurecr.io/kompira-enterprise:latest Running Pending 3 minutes ago "no suitable node (max replica…"
24z2rcnhc4ll ke2_jobmngrd.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 3 minutes ago
2xo9xug784u3 ke2_jobmngrd.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 3 minutes ago
vg0zk3qsc446 ke2_kengine.1 kompira.azurecr.io/kompira-enterprise:latest Running Pending 3 minutes ago "no suitable node (max replica…"
gdvrufzwbov5 ke2_kengine.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 3 minutes ago
v5cewfo0ewme ke2_kengine.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 3 minutes ago
bs2c7tfddwy7 ke2_kompira.1 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 3 minutes ago
g2cp91cwhxd3 ke2_kompira.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 3 minutes ago
mc45a9ilfmg6 ke2_kompira.3 kompira.azurecr.io/kompira-enterprise:latest Running Pending 3 minutes ago "no suitable node (max replica…"
j47uexpxtz8k ke2_nginx.1 registry.hub.docker.com/library/nginx:1.27-alpine Running Pending 3 minutes ago "no suitable node (host-mode p…"
szgmu5n2f3t7 ke2_nginx.2 registry.hub.docker.com/library/nginx:1.27-alpine ke2-server2 Running Running 2 minutes ago *:443->443/tcp,*:443->443/tcp,*:80->80/tcp,*:80->80/tcp
k32ba9qgcuyj ke2_nginx.3 registry.hub.docker.com/library/nginx:1.27-alpine ke2-server1 Running Running 3 minutes ago *:80->80/tcp,*:80->80/tcp,*:443->443/tcp,*:443->443/tcp
zeazgzl9ch9w ke2_rabbitmq.1 registry.hub.docker.com/library/rabbitmq:3.13-alpine Running Pending 3 minutes ago "no suitable node (max replica…"
yfvlqgh9urr2 ke2_rabbitmq.2 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server2 Running Running 3 minutes ago
khp2uezdem9z ke2_rabbitmq.3 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server1 Running Running 3 minutes ago
s7c9pqm0gf7g ke2_redis.1 registry.hub.docker.com/library/redis:7.2-alpine ke2-server1 Running Running 3 minutes ago
2台目のクラスタが正常に起動したとしても各コンテナは順次起動していきます。 そのため早すぎる段階でコマンドを実行しても、すべてのコンテナが開始していない場合があります(コマンド実行結果の一覧に表示されない)ので注意してください。
$ docker service ps -f desired-state=running $(docker service ls -q)
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
i85kdpqhato3 ke2_jobmngrd.1 kompira.azurecr.io/kompira-enterprise:latest Running Pending 2 seconds ago "no suitable node (max replica…"
v5cewfo0ewme ke2_kengine.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running less than a second ago
mc45a9ilfmg6 ke2_kompira.3 kompira.azurecr.io/kompira-enterprise:latest Running Pending 2 seconds ago "no suitable node (max replica…"
yfvlqgh9urr2 ke2_rabbitmq.2 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server2 Running Running less than a second ago
3台目のノードを起動したあとに全てのコンテナが起動を開始している状況の例を以下に示します。 全てのコンテナの行で NODE がいずれかのノードのホスト名を示していて、ERROR 列はすべて空欄になっていることが分かります。
$ docker service ps -f desired-state=running $(docker service ls -q)
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
3ruhydde239r ke2_jobmngrd.1 kompira.azurecr.io/kompira-enterprise:latest ke2-server3 Running Running 31 seconds ago
24z2rcnhc4ll ke2_jobmngrd.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 4 minutes ago
2xo9xug784u3 ke2_jobmngrd.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 4 minutes ago
zl3f74s8xtfh ke2_kengine.1 kompira.azurecr.io/kompira-enterprise:latest ke2-server3 Running Running 31 seconds ago
gdvrufzwbov5 ke2_kengine.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 4 minutes ago
v5cewfo0ewme ke2_kengine.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 4 minutes ago
bs2c7tfddwy7 ke2_kompira.1 kompira.azurecr.io/kompira-enterprise:latest ke2-server2 Running Running 4 minutes ago
g2cp91cwhxd3 ke2_kompira.2 kompira.azurecr.io/kompira-enterprise:latest ke2-server1 Running Running 4 minutes ago
2kiwn6dvorv5 ke2_kompira.3 kompira.azurecr.io/kompira-enterprise:latest ke2-server3 Running Running 31 seconds ago
mqod5o21dvrp ke2_nginx.1 registry.hub.docker.com/library/nginx:1.27-alpine ke2-server3 Running Running 28 seconds ago *:443->443/tcp,*:443->443/tcp,*:80->80/tcp,*:80->80/tcp
szgmu5n2f3t7 ke2_nginx.2 registry.hub.docker.com/library/nginx:1.27-alpine ke2-server2 Running Running 4 minutes ago *:443->443/tcp,*:443->443/tcp,*:80->80/tcp,*:80->80/tcp
k32ba9qgcuyj ke2_nginx.3 registry.hub.docker.com/library/nginx:1.27-alpine ke2-server1 Running Running 4 minutes ago *:80->80/tcp,*:80->80/tcp,*:443->443/tcp,*:443->443/tcp
q007y2p80gs8 ke2_rabbitmq.1 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server3 Running Running 31 seconds ago
yfvlqgh9urr2 ke2_rabbitmq.2 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server2 Running Running 4 minutes ago
khp2uezdem9z ke2_rabbitmq.3 registry.hub.docker.com/library/rabbitmq:3.13-alpine ke2-server1 Running Running 4 minutes ago
s7c9pqm0gf7g ke2_redis.1 registry.hub.docker.com/library/redis:7.2-alpine ke2-server1 Running Running 4 minutes ago
なお、1台目のノードを起動しただけの時点では、マネージャノード数が足りずに以下のようにエラーになります。
$ docker service ps -f desired-state=running $(docker service ls -q)
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader. It's possible that too few managers are online. Make sure more than half of the managers are online.
"docker service ps" requires at least 1 argument.
See 'docker service ps --help'.
Usage: docker service ps [OPTIONS] SERVICE [SERVICE...]
List the tasks of one or more services
全体のステータスを確認
全てのノードが起動できたら、クラスタを構成する各コンテナが正常に動作しているか確認してください。
- ブラウザで /.status 画面を開いて全てのコンテナが正常を示している(赤い表示になっていない)ことを確認してください。
- ブラウザで Kompira にログインできることを確認してください。
- 自動起動または自動再起動するジョブフローが存在する場合は、期待通りにプロセスが開始しているかを確認してください。なお、システムが正常な場合、(3台構成の場合) 2台目のノードを起動した時点で、このプロセスの自動起動処理は開始しています。
全てのノードが正常起動して、全てのコンテナが正常に動作していれば、クラスタ開始の成功となります。