Quantcast
Channel: VMware Communities : Blog List - All Communities
Viewing all articles
Browse latest Browse all 3135

vSphere 7.0 と 7.0 U1 での「ワークロード管理」有効化の違いについて。(NSX-T あり編)

$
0
0

vSphere 7.0 U1  では「vSphere with Kubernetes」が「vSphere with Tanzu」になり、

製品構成や技術的な面で vSphere 環境で Tanzu Kubernetes Grid による Kubernetes が利用しやすくなりました。

たとえば、NSX-T がなくても Kubernetes が利用できるようになりました。

 

その一方で、vSphere 7.0 のときと同様の、NSX-T を組み込んだスーパーバイザー クラスタも利用できます。

ただ、スーパーバイザー クラスタを作成する「ワークロード管理」の有効化にも

少し手順変更があったので、主な差分について紹介しておきます。

 

ドキュメントでは下記のあたりです。

(若干 vSphere 7.0 からの差分は確認しにくいかなと思います)

ワークロード管理の有効化

 

なお、おおまかな流れとしては以前に投稿したスーパーバイザー クラスタのラボ構築手順で、

vSphere 7.0 U1 でも環境構築できるはずです。

vSphere with Kubernetes ラボ環境構築。(まとめ)

 

「ワークロード管理」有効化の準備。

vSphere や、NSX-T の準備については、vSphere 7.0 時点とほぼ同様です。

ただし、Tanzu Kubernetes Grid(TKG)のコンテンツ ライブラリを、事前に作成しておくようになりました。

 

vSphere 7.0 時点では、TKG の OVF テンプレートををダウンロードする

コンテンツ ライブラリを、Tanzu Kubernetes Cluster を作成する前に作成する必要がありました。

7.0 U1 では「ワークロード管理」を有効化する前に、コンテンツ ライブラリの準備が必要になります。

コンテンツ ライブラリ未作成の場合は、エラーとなり「ワークロード管理」有効化を開始できません。

wcp-70u1-01.png

 

そこで、事前準備として TKG のコンテンツ ライブラリを作成しておきます。

これは下記投稿での「コンテンツ ライブラリの準備」にある手順と同様です。

vSphere with Kubernetes ラボ環境構築。Part-12: Supervisor Namespace での Tanzu Kubernetes Cluster 準備編

 

ライブラリに含まれる OVF(Kubernetes のバージョン)は増えており、

この投稿の時点では下記のようになっています。

wcp-70u1-08.png

 

「ワークロード管理」の有効化。

「ワークロード管理」の有効化は、ひと通り画面遷移を掲載しておきます。

 

以前の vSphere 7.0 時点での様子は下記をどうぞ。

vSphere with Kubernetes ラボ環境構築。Part-10: Supervisor Cluster 有効化編

 

vSphere Client で「メニュー」→「ワークロード管理」を開くと、

まず、ライセンス追加、もしくは評価版利用者の基本情報入力する画面が追加されています。

wcp-70u1-10.png

 

評価版として利用する場合は、情報を入力して「開始する」をクリックすると、下記画面に遷移します。

「開始する」で次に進みます。

wcp-70u1-12.png

 

「vCenter Server とネットワーク」画面の「ネットワーク スタック オプションを選択します」にて、

「NSX-T」もしくは「vCenter Server Network」を選択します。

今回は、従来どおり「NSX-T」を選択します。

wcp-70u1-13.png

 

「クラスタを選択」の画面は、7.0 と同様に、対象のクラスタを選択します。

wcp-70u1-16.png

 

ここからは、以前の vSphere 7.0 の頃と同様の情報入力が続きます。

「制御プレーンのサイズ」を選択します。

wcp-70u1-17.png

 

「ストレージ」で、用途ごとに仮想マシン ストレージ ポリシーを選択します。

wcp-70u1-18.png

 

「管理ネットワーク」の情報を入力します。

vSphere 7.0 U1 では、管理とワークロードとで入力画面が明確に分割されました。

wcp-70u1-20.png

 

「ワークロード ネットワーク」の情報を入力します。

wcp-70u1-21.png

 

「TKG 構成」は、vSphere 7.0 U1 から追加されました。

事前に作成した、TKG のコンテンツ ライブラリを選択します。

ただし、TKG と同時に Tanzu Kubernetes Cluster が作成されるわけではありません。

wcp-70u1-24.png

 

「確認」で、「完了」をクリックすると、処理が開始されます。

wcp-70u1-25.png

 

しばらく(ラボ環境では数十分)待つと、「ワークロード管理」が有効化されます。

これで、スーパーバイザー名前空間が作成できるようになります。

ちなみにクラスタ名の隣にある「!」マークが表示されているのは、評価版のためです。

wcp-70u1-27.png

 

Tanzu Kubernetes Cluster の変更点。

Tanzu Kubernetes Cluster(TKC)の作成方法は、vSphere 7.0 と同様です。

(下記投稿からの流れのように作成できます)

vSphere with Kubernetes ラボ環境構築。Part-12: Supervisor Namespace での Tanzu Kubernetes Cluster 準備編

 

ただし、デフォルトの CNI が Calico から Antrea になりました。

TKC を定義するマニュフェスト(YAML 形式)で CNI を定義していない場合は、Antrea がインストールされます。

 

例えば、下記のような YAML で TKC を作成してみます。

 

tkg-cluster-03.yml · GitHub

---

kind: TanzuKubernetesCluster

apiVersion: run.tanzu.vmware.com/v1alpha1

metadata:

  name: tkg-cluster-03

spec:

  distribution:

    version: v1.18.5

  topology:

    controlPlane:

      count: 1

      class: best-effort-xsmall

      storageClass: vm-storage-policy-wcp

    workers:

      count: 1

      class: best-effort-xsmall

      storageClass: vm-storage-policy-wcp

  settings:

    network:

      services:

        cidrBlocks: ["10.16.0.0/12"]

      pods:

        cidrBlocks: ["10.32.0.0/12"]

 

この YAML では、あえて CNI の指定(下記のような)は省略しています。

・・・

spec:

  settings:

    network:

      cni:

        name: antrea #or calico

・・・

 

TKC を作成します。

$ kubectl apply -f ./tkg-cluster-03.yml

 

kubectl vsphere login でログインした後に、作成された TKC を確認すると、

Antrea が利用されていることがわかります。

wcp-70u1-tkc-01.png

 

以上、vSphere 7.0 U1 での「ワークロード管理」有効化の様子でした。


Viewing all articles
Browse latest Browse all 3135

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>