ひきつづき、vSphere with Kubernetes を体験するためのラボ環境構築をしていきます。
これまでは、前提環境をととのえるための準備でしたが、
今回は、Supervisor Cluster を有効化します。
前回の投稿はこちら。
vSphere with Kubernetes ラボ環境構築。Part-09: Tier-0 ゲートウェイ作成編
Supervisor Cluster の有効化。
Supervisor Cluster は、vSphere Client の「ワークロード管理」から有効化します。
(むしろ「ワークロード管理」を有効化します)
vSphere Client で、「ワークロード管理」メニューを開きます。
「ワークロード管理」で、「有効化」をクリックします。
これまでの準備により「互換性あり」に vSphere Cluster が表示されるはずなので、
「wcp-cluster-01」を選択して「次へ」をクリックします。
制御プレーンのサイズ(Supervisor Control Plane VM のスペック)を選択します。
今回はハードウェア リソースの都合上「極小」を選択しています。
ネットワークの設定をします。
管理ネットワークは、次のようなパラメータを入力しています。
- ネットワーク: DPortGroup-labmgmt-0010
- vCenter などと通信できる、管理ネットワークのポートグループを指定する。
- Supervisor Control Plane VM の 1つめの vNIC に割り当てられる。
- 開始 IP アドレス: 192.168.10.51
- Supervisor Control Plane VM に付与される IP アドレス。
- 開始 IP アドレスから 5つ消費する。
- Supervisor Control Plane VM の Floating IP アドレス。(1つ。開始 IP アドレスが使用される)
- Supervisor Control Plane VM 3台の IP アドレス。3つ。今回は .52 ~ .54)
- アップグレード時の予約。(1つ。今回は .55)
- サブネットマスク: 255.255.255.0(「開始 IP アドレス」のネットワークでのサブネット マスク)
- ゲートウェイ: 192.168.10.1(「開始 IP アドレス」のネットワークでのサブネット マスク)
- DNS サーバ: (カンマ区切りで DNS サーバを指定)
- DNS 検索ドメイン: go-lab.jp
- NTP サーバ: (カンマ区切りで DNS サーバを指定)
下にスクロールし、
ワークロード ネットワークは、次のようなパラメータを入力しています。
- vSphere Distributed Switch: DSwitch
- Edge クラスタ: edge-cluster-01
- API サーバのエンドポイント FQDN: lab-wcp-01.go-lab.jp
- Supervisor Control Plane VM の Floating IP にアクセスすると、
ここで指定した名前が証明書 Subject Alternative Name に設定されていたりする。
- Supervisor Control Plane VM の Floating IP にアクセスすると、
- DNS サーバ: (カンマ区切りで DNS サーバを指定)
- ポッド CIDR: 10.244.0.0/21(デフォルトのまま)
- Pod のネットワークが、このレンジから払い出される。
- サービス CIDR: 10.96.0.0/24(デフォルトのまま)
- Kubernetes 内部通信の ClusterIP で利用される。
- 入力方向 CIDR:192.168.70.32/27
- Tier-0 ゲートウェイの外部インターフェイス(Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定する。
- NSX ロードバランサによる VIP に払い出される。
- Supervisor Control Plane VM の VIP は、この CIDR の最初の IP アドレス(192.168.70.33)になる。
- 出力方向 CIDR: 192.168.70.64/27
- Tier-0 ゲートウェイの外部インターフェイス(Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定する。
- NSX では SNAT で利用される。
ストレージでは、下記の 3つのデータストアを指定するため、
仮想マシン ストレージ ポリシーを指定します。
ここでは、以前の投稿で作成した「vm-storage-policy-wcp」を指定しています。
- 制御プレーン ノード(Supervisor Control Plane VM の VMDK を配置するデータストア)
- 短期ディスク(vSphere Pod で利用するデータストア)
- イメージ キャッシュ(コンテナ イメージのキャッシュ)
設定値を確認して「完了」をクリックすると、Supervisor Cluster の有効化がはじまります。
「クラスタ」タブで、構成ステータスが確認できます。
開始直後、「最近のタスク」にリモートファイルのダウンロードで 404 エラーが表示されますが、これは無視します。
Supervisor Control Plane VM が自動的にデプロイされます。
ちなみに、ESXi が 4台以上あるクラスタでも、Control Plane VM は 3台です。
有効化処理がうまくいかない場合は、vCenter に root ユーザでログインして、
まず下記のログを確認してみるとよいと思います。
- ログファイル: /var/log/vmware/wcp/wcpsvc.log
しばらく(数十分 ~ 数時間)待つと、「構成ステータス」が「実行中」になり、
「制御プレーン ノード」の IP アドレスが、最終的に「入力方向 CIDR」で指定したレンジの IP アドレスになります。
「現在のバージョン」には、Supervisor Cluster の Kubernetes バージョンが表示されています。
これで wcp-cluster-01 クラスタで、Supervisor Cluster の機能が有効化されました。
名前空間の作成。
「ワークロード管理」メニューの「名前空間」タブを開くと、
「名前空間の作成」が表示されるので、クリックします。
クラスタを選択して、名前空間の名前(ここでは lab-ns-01)を入力して「作成」をクリックします。
名前空間が作成されました。
「ステータス」→「CLI ツールへのリンク」にある、「開く」をクリックします。
【10-32】
「Kubernetes CLI Tools」という、
専用 kubectl のダウンロード ページが表示されるはずです。
これでひとまず、vSphere with Kubernetes を体験するためのラボ環境が構築できました。
このページが表示されていない場合は、Supervisor Cluster の有効化が成功していても
NSX-T や物理ネットワークなどの構成がうまくできていない可能性があります。
以上、vSphere 7.0 + NSX-T 3.0 で Supervisor Cluster の有効化でした。
おそらくつづく。