vSphere 7.0 U1 では「vSphere with Kubernetes」が「vSphere with Tanzu」になり、
製品構成や技術的な面で vSphere 環境で Tanzu Kubernetes Grid による Kubernetes が利用しやすくなりました。
たとえば、NSX-T がなくても Kubernetes が利用できるようになりました。
その一方で、vSphere 7.0 のときと同様の、NSX-T を組み込んだスーパーバイザー クラスタも利用できます。
ただ、スーパーバイザー クラスタを作成する「ワークロード管理」の有効化にも
少し手順変更があったので、主な差分について紹介しておきます。
ドキュメントでは下記のあたりです。
(若干 vSphere 7.0 からの差分は確認しにくいかなと思います)
なお、おおまかな流れとしては以前に投稿したスーパーバイザー クラスタのラボ構築手順で、
vSphere 7.0 U1 でも環境構築できるはずです。
vSphere with Kubernetes ラボ環境構築。(まとめ)
「ワークロード管理」有効化の準備。
vSphere や、NSX-T の準備については、vSphere 7.0 時点とほぼ同様です。
ただし、Tanzu Kubernetes Grid(TKG)のコンテンツ ライブラリを、事前に作成しておくようになりました。
vSphere 7.0 時点では、TKG の OVF テンプレートををダウンロードする
コンテンツ ライブラリを、Tanzu Kubernetes Cluster を作成する前に作成する必要がありました。
7.0 U1 では「ワークロード管理」を有効化する前に、コンテンツ ライブラリの準備が必要になります。
コンテンツ ライブラリ未作成の場合は、エラーとなり「ワークロード管理」有効化を開始できません。
そこで、事前準備として TKG のコンテンツ ライブラリを作成しておきます。
これは下記投稿での「コンテンツ ライブラリの準備」にある手順と同様です。
vSphere with Kubernetes ラボ環境構築。Part-12: Supervisor Namespace での Tanzu Kubernetes Cluster 準備編
ライブラリに含まれる OVF(Kubernetes のバージョン)は増えており、
この投稿の時点では下記のようになっています。
「ワークロード管理」の有効化。
「ワークロード管理」の有効化は、ひと通り画面遷移を掲載しておきます。
以前の vSphere 7.0 時点での様子は下記をどうぞ。
vSphere with Kubernetes ラボ環境構築。Part-10: Supervisor Cluster 有効化編
vSphere Client で「メニュー」→「ワークロード管理」を開くと、
まず、ライセンス追加、もしくは評価版利用者の基本情報入力する画面が追加されています。
評価版として利用する場合は、情報を入力して「開始する」をクリックすると、下記画面に遷移します。
「開始する」で次に進みます。
「vCenter Server とネットワーク」画面の「ネットワーク スタック オプションを選択します」にて、
「NSX-T」もしくは「vCenter Server Network」を選択します。
今回は、従来どおり「NSX-T」を選択します。
「クラスタを選択」の画面は、7.0 と同様に、対象のクラスタを選択します。
ここからは、以前の vSphere 7.0 の頃と同様の情報入力が続きます。
「制御プレーンのサイズ」を選択します。
「ストレージ」で、用途ごとに仮想マシン ストレージ ポリシーを選択します。
「管理ネットワーク」の情報を入力します。
vSphere 7.0 U1 では、管理とワークロードとで入力画面が明確に分割されました。
「ワークロード ネットワーク」の情報を入力します。
「TKG 構成」は、vSphere 7.0 U1 から追加されました。
事前に作成した、TKG のコンテンツ ライブラリを選択します。
ただし、TKG と同時に Tanzu Kubernetes Cluster が作成されるわけではありません。
「確認」で、「完了」をクリックすると、処理が開始されます。
しばらく(ラボ環境では数十分)待つと、「ワークロード管理」が有効化されます。
これで、スーパーバイザー名前空間が作成できるようになります。
ちなみにクラスタ名の隣にある「!」マークが表示されているのは、評価版のためです。
Tanzu Kubernetes Cluster の変更点。
Tanzu Kubernetes Cluster(TKC)の作成方法は、vSphere 7.0 と同様です。
(下記投稿からの流れのように作成できます)
vSphere with Kubernetes ラボ環境構築。Part-12: Supervisor Namespace での Tanzu Kubernetes Cluster 準備編
ただし、デフォルトの CNI が Calico から Antrea になりました。
TKC を定義するマニュフェスト(YAML 形式)で CNI を定義していない場合は、Antrea がインストールされます。
例えば、下記のような YAML で TKC を作成してみます。
---
kind: TanzuKubernetesCluster
apiVersion: run.tanzu.vmware.com/v1alpha1
metadata:
name: tkg-cluster-03
spec:
distribution:
version: v1.18.5
topology:
controlPlane:
count: 1
class: best-effort-xsmall
storageClass: vm-storage-policy-wcp
workers:
count: 1
class: best-effort-xsmall
storageClass: vm-storage-policy-wcp
settings:
network:
services:
cidrBlocks: ["10.16.0.0/12"]
pods:
cidrBlocks: ["10.32.0.0/12"]
この YAML では、あえて CNI の指定(下記のような)は省略しています。
・・・
spec:
settings:
network:
cni:
name: antrea #or calico
・・・
TKC を作成します。
$ kubectl apply -f ./tkg-cluster-03.yml
kubectl vsphere login でログインした後に、作成された TKC を確認すると、
Antrea が利用されていることがわかります。
以上、vSphere 7.0 U1 での「ワークロード管理」有効化の様子でした。