Quantcast
Channel: VMware Communities : Blog List - All Communities
Viewing all 3135 articles
Browse latest View live

StorMagic SvSAN overview and live demo

$
0
0

26 March 2015, 15:00 – 15:30 GMT / 9:00 – 9:30 CT

    

Register Now

 

StorMagic’s SvSAN is a software-only virtual SAN which enables enterprises to eliminate downtime of business critical applications across their distributed environments, where this disruption directly equates to a loss in service and revenue.

 

Please join us to learn more about StorMagic SvSAN, the most cost-effective virtual SAN for remote sites.

 

Webinar agenda:

  • Overview of StorMagic and SvSAN
  • Discover how SvSAN enables you to eliminate physical SANs and reduce server and software spend by 40%
  • Learn how a leading U.S. retail chain resolved downtime challenges across 2200 site with SvSAN in less than 8 months
  • Live demo of SvSAN including failover

 

Presenters

Nathan Hulcoop: Director of Sales , StorMagic

Mark Christie: Senior Systems Engineer, StorMagic

    

Register Now


[VMware] VCS to VCVA Converter

$
0
0

まさかと思いましたが、こんなツールが公開されました。


VMware Labsに"VCS to VCVA Converter"というツールが公開されました。2013年Flingsコンテストで優勝したアイディアから産まれたとのことです。

で、このツールが何かというと、Windows ServerにインストールしたvCenterをLinuxベースの仮想アプライアンスにマイグレーションしてくれるツールです。!!!

 

vcs-to-vcsa-converter.png

VMware Labs

 

説明によると、このツールを使うことで、以下のモジュールが移行できると言ってます。

  • vCenterデータベース
  • ロール、権限
  • 証明書
  • Inventory Service

 

まさしくOSを超えるクロスプラットフォーム移行ツールです。:)

が。。。 いろんな制約もあります。

このツールを使って移行をするためには、vCenter用DBはリモート存在する必要があります。(vCenterとSQL Serverが同居してるとダメのようです) あとSQL ServerのExpressエディションもダメとのことです。

あと、当たり前ですがWindowsのローカルユーザーやグループは移行されませ~ん。あとすべてのプラグインも移行できません。


まあ、公開されたバージョンが0.9だし、まだLabsにあるので実環境での利用には無理があると思いますが、興味のある方はお試しください。

ツールの詳細はこちらをご覧ください。

vSphere 6.0 の 新機能について。(Content Library での Template 管理)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 の新機能に「コンテンツ ライブラリ」というものがあります。

VM テンプレートや vApp テンプレート、ISO ファイル、スクリプトなどを

アップロードして集中管理することができます。

また、ライブラリにパスワードを設定することもできます。


ファイルなら何でもコンテンツとして登録できるのですが、

基本的には VM テンプレート と、vApp テンプレートの集中管理で使うもののように感じました。


そもそも、VM のテンプレートについて

vCenter 環境では、VM のテンプレートを作成しておくと、

それを複製することで同じ構成の VM を作成することができます。

(テンプレートから VM を作成することを デプロイ と言ったりします。)


vCenter 環境特有のテンプレート以外にも、OVF という形式のテンプレートもあります。

これは、vCenter や ESXi に VM としてインポートすることができます。


vCenter の VM テンプレートは、VM を変換することで作成します。

もちろん OVF からインポートした VM も、vCenter で扱う VM テンプレートにすることができます。

content-lib-01.png


この VM テンプレートですが、

複数台 vCenter がある環境では同じ内容のテンプレートでも、

vCenter ごとに別物として管理されていました。


複数の vCenter がある環境では、同じ VM テンプレートを使用したい場合は、

全く同じ VM を作成したり、下図の例のように、OVF エクスポート / インポートして

vCenter 間でテンプレートをやりくりしたりする必要がありました。

content-lib-02.png

 

コンテンツ ライブラリと、VM テンプレートの管理について

vSphere 6.0 からは、「コンテンツ ライブラリ」という機能を使用することで

複数台の vCenter がある場合も VM テンプレートを集中管理することができるようになりました。

 

OVF を直接コンテンツライブラリにインポートしたり、

テンプレートをを複数の vCenter で扱うことが出来るようになります。

コンテンツの配置先には、データストアや vCenter の認識しているストレージが使用できます。


たとえば、下図のように vCenter それぞれのコンテンツ ライブラリにコンテンツが同期され、

「Template#1」というテンプレートのコンテンツで VM のデプロイができるようになります。

コンテンツ ライブラリは vCenter 単位で作成されます。

また、vCenter ごとに、複数のコンテンツ ライブラリを作成できます。

content-lib-03.png


それぞれのライブラリで持つコンテンツの実体は別ファイルになります。

テンプレート用のストレージ容量は従来通り必要になりますが、テンプレート管理は意外と大変なので

テンプレート数が多い環境では vCenter 台数が少なくても(たとえ 2~3 台でも)

便利な機能なのではないかと思いました。


以上、vSphere 6.0 のコンテンツ ライブラリについての話でした。

[VMware] vSphere Design Pocket Book 2.0

$
0
0

2年前でしょうかね。VMware社のエンジニアやコミュニティ/ブログで精力的に活動しているブロガーでvSphereデザインガイド作ろうとしたことがありました。

いわゆる専門家による経験をベースにしたティップス集のようなものだったと思います。ツイーターにて様々なティップスを募集しましたが、条件は140文字程度の短い文で構成することだったと思います。(集まったティップスはエディション1.0で公開されたようです)

 

去年はエディション2.0が新たに公開されました。ツイートのように短い文章で構成されてたエディション1.0とは違い、2013年から2014年の間で様々なブログから書かれた記事の中から厳選されたブログ記事で構成されています。内容は以下のとおり。

 

vSphere Design Pocketbook 2.0

1. Host Configuration

2. Cluster and vCenter Design

3. Storage Configuration

4. Network and Security Design

5. VM Configuration

6. Application Landscape

7. その他のティップス

 

英語ですが、タダですので、ダウンロードしてスマホやタブレットに入れといて電車の中で読むには最高かもしれません。笑

ダウンロードはこちらから。

 

PS> Thanks to PernixData and Frank Denneman who published the document.

Changing the VMNIC number Order using esx.conf

$
0
0

Might not be new, But had few calls from my colleagues about the VMNIC number change and they report its not working after changing it in the \device\ID location of esx.conf file.

So just thought of giving some head's up.

 

Firstly!! Yes the only supported & always recommended way for correcting the VMNIC numbering & order is by following the VMware KB 2019871.


But there are few circumstances that we could not follow the recommended way & on extremely exceptional situation we will be looking for the obvious option of changing the VMNIC order in the esx.conf file as required. I see few number of web contents, it is listed to change only the /devices/ID section which is not working.

 

Actually, there are almost 3 to 4 places including /devices/ID location you need to change in for VMNIC# in the esx.conf file. So the better way is

 

  • To download locally the esx.conf file using winscp from your esx server.
  • Open it with the word pad
  • Enter Ctrl + F and search for VMNIC#(# is the current NIC order number that you want to change to) one by one
  • Replace it with the desired NIC numbering until the search says that wordpad has finished searching the document. ( it should be 3 or 4 place you should have made the changes)
  • Once you are sure with the changes done, copy & replace the esx.conf in the esxi host using winscp. ( obviously keep a backup for worst-case)

 

Regards,

Arvinth Rajkumar Ravi.

vSphere 6.0 の 新機能について。(vCenter 6.0 と PSC)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 では、vCenter のインストールコンポーネントの構成が変更されました。


vCenter 5.1 / 5.5 ではコンポーネントが4つに分割されていましたが、

vCenter 6.0 では、vCenter と Platform Services Controller(PSC)の2つにまとめられました。

以前の Inventory Service や Web Client サーバは vCenter として集約されました。

そして、vCenter SSO に証明書管理をするための認証局(VMware Certificate Authority)や、

ライセンス管理機能が追加されたのが PSC です。


ただし、これまで存在したコンポーネントが完全に削除されるというわけではなく、

分割インストールできる単位が変更されました。

vc60-component-00.png


vCenter は、従来通り 1台のサーバにコンポーネントをまとめて導入することが可能です。

Windows 版も、vCenter Server Appliance(VCSA。Linux 仮想アプライアンス版)もあります。

物理 Windows サーバにインストールすることも可能です。

vc60-component-01.png


そして、Windows 版と同様に、VCSA も

vCenter / PSC それぞれ分割構成にすることも可能になりました。

vc60-component-02.png


vCenter と PSC を同じサーバにインストールしたうえで

SSO をレプリケーション構成にすることもできます。

このような構成にすると Enhanced Linked Mode という状態になり、

Web Client でどれかの vCenter にログインすると

PSC(に含まれる vCenter SSO)管理下の、すべての vCenterをまとめて管理できます。


ちなみに、vCenter 6.0 からは、同一の vCenter SSO 管理下で

Windows 版 / VCSA の vCenter を混在させることもできます。

vc60-component-03.png


vCenter と PSC を別のサーバにインストールしたうえで、

複数台の vCenter を PSC に登録することもできます。

このような構成にした場合も Enhanced Linked Mode になります。


PSC 同士をレプリケーションする場合も、

単一の PSC に vCenter を登録する場合も、

どちらも vCenter は Enhanced Linked Mode として構成されます。

Web Client でどれか 1台の vCenter にログインすれば、

PSC に登録されているすべての vCenter にアクセスすることができます。

vc60-component-04.png


さらに、レプリケーションしている PSC にロードバランサ経由でアクセスするように構成することもできます。

このような構成の場合、vCenter 5.5 では Web Client サーバをどこにインストールするか

べつに検討する必要がありましたが、vCenter 6.0 からは vCenter に Web Client が含まれます。

そして、Web Client でどの vCenter にログインしても、リンクモードで全体を見ることができます。

vc60-component-05.png


ちなみに、vCenter 6.0 はインストールコンポーネント構成だけでなく、

他にもいろいろ 改善 / 変更があります。たとえば・・・

・Windows 版も、Linux 版(VCSA)も同規模の環境に対応できるようになる。

・同梱される vCenter Database が SQL Server から Postgres に変更。


個人的には、vCenter 6.0 では

インストールコンポーネント構成が 5.1 ~ 5.5 よりもシンプルになって、

迷う必要が少なくなりそうで よかったと思います。


以上です。vCenter 6.0 のインストール コンポーネント構成についてでした。

vSphere 6.0 の 新機能について。(ESXi ローカルユーザ管理)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 では、ESXi のローカルユーザ アカウント管理についての機能がいくつか改善されます。

便利そうなので紹介してみようと思います。


ESXi 5.5 までのローカルユーザ管理

ESXi 5.5 までは、ESXi のローカルユーザを追加したり、削除したりする場合、

vSsphere Client で ESXi に直接ログインする必要がありました。


また、ESXi のローカルユーザ のパスワードルール(文字列の複雑性など)を設定する場合、

たいていは ESXi にコンソールか SSH でログインして、

設定ファイル「/etc/pam.d/passwd」を直接編集する必要がありました。


つまり、ESXi のローカルユーザを管理する場合は、

vCenter ではなく わざわざESXi に直接ログインが必要で、

しかも複数のツールでログインしなおして手作業でファイル編集するようなケースがありました。

esxi60-account-01.png


ESXi 6.0 のローカルユーザ管理

ESXi 6.0 では、ESXi のローカルユーザ管理が esxcli コマンドで実行可能になりました。

そしてパスワードルールの設定は、ESXi の詳細設定パラメータで

設定することができるようになりました。


これにより、vCenter にログインするだけで

ESXi のローカルユーザ管理を集中管理しやすくなります。

以降で、集中管理ができるようになる様子について、もう少し説明してみようと思います。

esxi60-account-02.png


ESXi 6.0 でのローカルユーザ追加/削除などについて。

ESXi 6.0 から、ローカルユーザの 追加 / 削除 などが esxcli で実施可能になります。

たとえば、「esxcli system account add ~」といったコマンドが

esxcli に追加されます。


esxcli は、一般的には ESXi のローカルや vMA から実行されますが、

PowerCLI の Get-EsxCli コマンドレットを使用することで

vCenter 経由で ESXi に対して esxcli を実行することができます。

esxi60-account-03.png


ESXi 6.0 でのローカルユーザのパスワードルール変更について。

ESXi 5.5 までは、ESXi ローカルの認証にかかわる(PAM の)設定ファイルを、

ESXi に直接ログインしたうえで、vi 等のテキストエディタで直接編集する必要がありました。

(参考)

ESX、ESXi 4.x および 5.x でのパスワードの要件と制限

http://kb.vmware.com/kb/2079822

 

ESXi 6.0 からは、パスワードルールが ESXi のパラメータとして管理されるようになり、

vCenter から、管理下の ESXi の設定をまとめて変更可能になります。

esxi60-account-04.png

 

通常、 vSphere 環境は vCenter 経由で管理するため、

ESXi のローカルユーザを追加したり、パスワードルールを変更したりという

ことはあまり無いかもしれません。

しかし、セキュリティ要件などにより、ローカルユーザ管理が発生する場合は

大幅に便利になると思います。

 

以上、ESXi 6.0 のローカルユーザ管理の改善についてでした。

Script to create iSCSI vSwitch in VMware ESXi 5.x

$
0
0

#Leia este post em português

This script connect to vCenter Server and create a vSwitch Standard for using iSCSI network in three VMware ESXi hosts. Are used two network interfaces and three VMKernels (iSCSI01, iSCSI02 and Storage Heartbeat). To run the script you need the VMware PowerCLI, hostname or IP and administrator access credentials vCenter Server, hostname or IP of the ESXi servers, nomenclature for the vSwitch, VMKernels IP and iSCSI network. You must also define which network interfaces assigned to this vSwitch, besides the possibility of set the MTU. The script also enables a network interface for a VMkernel, while the other interface is unused.

script-vswitch-iscsi-2.jpg

script-vswitch-iscsi-3.jpg

 

Below are some details of the script:

 

######################### General Setup ###########################

$vcenter_name = "rc-vc01.rc.local"

$vswitch_name = "iSCSI"

$portgroup1_name = "iSCSI01"

$portgroup2_name = "iSCSI02"

$portgroup3_name = "StorageHeartbeat"

$device_nic1 = "vmnic2"

$device_nic2 = "vmnic3"

$mtu_value = "9000"

$network_mask = "255.255.255.0"

 

script-vswitch-iscsi-4.jpg

 

########################## VMware ESXi 1 ##########################

$esxi1_name = "rc-esxi01.rc.local"

$ip_portgroup1_esxi1 = "10.0.0.11"

$ip_portgroup2_esxi1 = "10.0.0.21"

$ip_portgroup3_esxi1 = "10.0.0.31"

 

# Conect to vCenter Server

Connect-VIServer $vcenter_name

# Create vSwitch in ESXi Hosts

Foreach ($vmhost in (get-vmhost))

{

New-VirtualSwitch -VMHost $vmhost -Name $vswitch_name -Nic $device_nic1,$device_nic2 -MTU $mtu_value

}

 

########################## VMware ESXi 1 ##########################

New-VMHostNetworkAdapter -VMHost $esxi1_name -PortGroup $portgroup1_name -VirtualSwitch $vswitch_name -IP $ip_portgroup1_esxi1 -SubnetMask $network_mask -FaultToleranceLoggingEnabled:$false -ManagementTrafficEnabled:$false -VsanTrafficEnabled:$false -VMotionEnabled:$false -Mtu $mtu_value

New-VMHostNetworkAdapter -VMHost $esxi1_name -PortGroup $portgroup2_name -VirtualSwitch $vswitch_name -IP $ip_portgroup2_esxi1 -SubnetMask $network_mask -FaultToleranceLoggingEnabled:$false -ManagementTrafficEnabled:$false -VsanTrafficEnabled:$false -VMotionEnabled:$false -Mtu $mtu_value

New-VMHostNetworkAdapter -VMHost $esxi1_name -PortGroup $portgroup3_name -VirtualSwitch $vswitch_name -IP $ip_portgroup3_esxi1 -SubnetMask $network_mask -FaultToleranceLoggingEnabled:$false -ManagementTrafficEnabled:$false -VsanTrafficEnabled:$false -VMotionEnabled:$false -Mtu $mtu_value

Get-VirtualPortGroup -VMHost $esxi1_name -Name $portgroup1_name | Get-NicTeamingPolicy | Set-NicTeamingPolicy  -MakeNicActive $device_nic1 -MakeNicUnused $device_nic2

Get-VirtualPortGroup -VMHost $esxi1_name -Name $portgroup2_name | Get-NicTeamingPolicy | Set-NicTeamingPolicy  -MakeNicActive $device_nic2 -MakeNicUnused $device_nic1

 

You can edit the script to use more or fewer hosts, network interfaces and VMKernels. Feel free to edit it according to your need.

 

Script download: EN-Create-vSwitch-iSCSI.ps1

 

References:

PowerCLI Documentarion

VMware PowerCLI Blog

PowerCLI User’s Guide


Recommendations - LUNs for Virtualization

$
0
0

#Leia este post em português

In most virtualization project, regardless of hypervisor, I realize that there are many questions concerning the size and number of LUNs. Many administrators choose to consolidation, others prefer the isolation.

Below I describe the characteristics, pros, cons and recommendations on creating LUNs for virtualized environments.

 

Isolation

In isolated storage, each virtual machine, regardless of its size or importance to the business, has a unique LUN. In some cases, the same virtual machine comes to have two or more LUNs used for C and D units, for example. Keeping a virtual machine by LUN is possible to obtain an improvement in performance because there is no competition in the LUN on the other hand you can get the maximum supported by the hypervisor, and there is a misuse of resources, because the free space on a LUN can not be used by another virtual machine.

An environment with 50 virtual machines becomes complex and very difficult to administration, because the storage will have 50 LUNs and the hypervisor 50 datastores / volumes, in other words, before creating a new virtual machine, you must create a new LUN, submit to the hypervisor and configure it.

 

isolation-vm.png

  • Pros
    • If a problem occurs with the LUN, will affect only a virtual machine;
    • Possible improvement in performance, there is no competition in the LUN.
  • Cons
    • Misuse of resources;
    • Complex environment;
    • Much time is dedicated to managing and maintaining the environment.

 


Consolidation

In consolidated storage, all virtual machines are stored in a single LUN. With this configuration, there is a better use of resources, maintenance and also in the management of the environment. However, competition in the LUN is great, may cause decreased performance of virtual machines.

An environment with 50 virtual machines becomes simple and easy administration, because the storage will have only one LUN and the hypervisor a single datastore / volume.

 

consolidation-vm.png

  • Pros
    • Better use of resources;
    • Simple environment;
    • Management and facilitated maintenance.
  • Cons
    • If a problem occurs with the LUN, will affect all virtual machines;
    • Possible reduction in performance, a lot of competition in the LUN.

 

 

Okay, what the size of the LUNs and storage type should I use?

You can see the pros of one type of storage is the cons of the other, so it is not possible to adopt a standard storage type and size of the LUN, all depends on the environment and needs. VMware recommends using a mix between the types of storagehaving consolidated storage with some privacy, so the LUNs can be large enough to hold X amount of virtual machines, but it also depends on the hardware (size disk, rpm, cache controllers, etc.) and virtual machines (avoid storing SQL and Exchange servers on the same LUN, for example). Most manufacturers suggest to perform a full analysis of the environment, in view of the hardware, needs and growth prospects, in order to then stipulate the amount and size of LUNs.

 

There are some precautions that should be taken before and after the creation of LUNs:

  • Knowing the limitations of hardware;
  • Knowing the size, number of virtual machines and estimate the possibility of growth;
  • Separate LUNs groups by dividing transport protocols (NFS, iSCSI, FC, etc), disks (SATA, SCSI, SAS, SSD, etc.) and virtual machines that require more I/O.

 

There are also some tools (thinkingloudoncloud | yellow-bricks) that assist in this decision, however, the best tool is to combine the knowledge of the environment, needs and common sense.

 

References:

Changes in HA in vSphere 6.0

$
0
0

We all are aware of DRS affinity and anti-affinity rules and we know the fact that HA doesn’t respect the VM-Host should rules and if any host fails then HA can restart the VM’s anywhere and not necessarily on the host to which VM’s has affinity rules tied up.

 

However on next invocation of DRS (default 5 minutes) this violation would be corrected by DRS itself and VM’s will return to the host according to the VM-Host affinity rules.

With vSphere 6.0 VMware has introduced one new advanced configurable option in HA. This setting is called “das.respectVmHostSoftAffinityRules”. As the name itself suggests, this setting will let HA to respect VM-Host affinity rules when it can and can violate it when HA doesn’t have much choice.

 

To make things clear let’s consider the below scenario.

 

We have 4 Esxi hosts and each host have 10 running VM’s. 3 VM (VM-a, VM-b, VM-c) on the host 2 has affinity rules configured to run only on host 2 and host 3. Now suppose host 2 fails and HA starts the failover. We have defined “das.respectVmHostSoftAffinityRules” in HA so HA ideally can restart VM-a, VM-b and VM-c on host 3 in accordance to the VM-Host affinity rules.

But suppose if the host 3 is already heavily loaded and running on nearly full capacity and it cannot accommodate any new incoming VM, then HA has no choice but to restart the VM’s elsewhere (may be on host 1 or host 4)

 

The second scenario can be none of the host where failed VM’s has affinity rules tied is available at the time of failover. In this case HA will behave just like it is doing till version 5.5 and can restart VM’s anywhere on the remaining nodes of the cluster.

What’s new in vSphere 6.0 – Content Library

$
0
0

What is Content Library?

One of the new feature of vSphere 6 is Content Library . The Content Library provides simple and effective management for VM templates, vApps, ISO images and scripts for vSphere Administrators collectively called “content”.

Sometimes we have ISO and other files (needed for VM creation etc) are spread across datastores as multiple administrators are managing vSphere Infrastructure.This can lead to duplication of the contents. To mitigate this issue concept of content library is introduced in vSphere 6.o which allows for a centralized place for storing your contents.

images.jpg

Advantage of Content Library

The Content Library can be synchronized across sites and vCenter Servers. Sharing consistent templates and files across multiple vCenter Servers in same or different locations brings out consistency, compliance, efficiency and automation in deploying workloads at scale.

Following are some of the features of the content library:

  • Store and manage content - Once central location to manage all content as VM templates, vApps, ISO’s, scripts etc. This release will have a maximum on 10 libraries and 250 items per library and it is a build-in feature in the vCenter Server. Not a plug-in that you will have to install separately.
  • Share content– Once the content is published on one vCenter Server, you can subscribe to the content from other vCenter Servers. This looks similar to the catalog option in the vCloud Director.
  • Templates– The VM’s will be stored as OVF packages rather than templates. This will affect the template creation process. If you want to make changes to a certain OFV template in the Content Library you have to create a VM out of it first, make the changes and then export it back to an OVF template and into the library.
  • Network– The port for communication for the Content Library will be 443 and there is an option to limit the sync bandwidth.
  • Storage– The Content Library can be stored on datastores, NFS, CFIS, local disks etc. as long as the path to the library is accessible locally from the vCenter Server and the vCenter Server has read/write permissions.

How to change vSphere Client Locale

$
0
0

By default vSphere client will we started in the locale which is defined at your system level. You can very easily change the locale for your vSphere client. Follow the steps mentioned below to do so:

1: Open Command Prompt and navigate into the directory where VPXClient resides (default is “C:\Program Files\Infrastructure\Virtual Infrastructure Client\Launcher”).

Following locales are supported

en_us

English

de_de

German

fr_fr

French

Ja

Japanese

Ko

Korean

zh_cn

Simplified Chinese

 

2: Start vpxclient.exe –locale xx where xx is the locale which you want to set.

3: For E.g you want to start your vSphere client in Japanese language then type the command

  1. vpxclient.exe –locale ja

Now launch your vSphere client. It will be launched in Japanese language.


locale.png

vSphere 6.0 の 新機能について。(Web Client の改善)

$
0
0

とうとう、vSphere 6.0 がリリースされました。

VMware vSphere 6 のドキュメント

http://www.vmware.com/jp/support/support-resources/pubs/vsphere-esxi-vcenter-server-6-pubs.html


いわゆる GA 版 が使用できるようになったので、

個人的に vSphere 6.0 で一番よい改善だと思う vSphere Web Client の UI について紹介したいと思います。


vSphere 5.5 の Web Client


まず、vSphere 5.5 の頃の Web Client です。

デフォルトで TCP 9443 番という微妙なポートを使用します。

vsphere-55-webclient-01.png


例として、vSphere 5.5 Web Client での

ESXi の右クリックメニューを見てみると、規則性をみつけにくく、結構、迷子になります。


パッと見てみあたらないものは、「すべての vCenter アクション」から深い階層をたどっていくと見つかったりします。

vsphere-55-webclient-02.png

 

vSphere 6.0 の Web Client


まず、Web Client のポートが 9443 ではなく、443 番ポートになりました。

標準的な https のポートを使用するので、

Web ブラウザで指定する URL ではポート番号の指定(以前の「~:9443」という部分)は不要になります。

独特な 9443 番ポートを使用しなくなるので、ファイアウォールの設定もれや

運用手順書などでの URL 指定ミスなどのヒューマンエラーが減らせそうです。

web-client-60-01.png


Web Client にログインすると、このような画面になります。

vSphere Client のように「最近のタスク」がデフォルトで画面下部に配置されています。

画面の雰囲気については、これまでの Web Client からあまり変化がないと思います。

web-client-60-02.png


しかし、メニュー構成は大幅に改善されています。

例として ESXi の右クリックメニューを見てみると、

5.5 のころより、直観的に階層をたどりやすく整理されています。

web-client-60-03.png


たとえば、「メンテナンス モード」メニューの配下はこうなっています。

web-client-60-04.png


「電源」メニューの配下に、「パワーオン」や「シャットダウン」が配置されています。

web-client-60-05.png


以前は見つけにくかった データストアを追加するメニューも

「ストレージ」メニュー配下に、「新しいデータストア」として配置されています。

web-client-60-06.png


おなじく、以前は分かりにくかった ESXi の VMkernel ポートや ポートグループの追加も、

ESXi の右クリックメニューからウィザードが起動できるようになりました。

「ネットワークの追加」をクリックすると・・・

web-client-60-07.png


この画面が開けるようになりました。

web-client-60-08.png


ちなみに、Web Client だけの改善ではありませんが、

「証明書」メニューで、ESXi の証明書が入れ替えられるようになりました。

「証明書を更新」をクリックして・・・

web-client-60-09.png


「はい」をクリックするだけで、vCenter の VMCA(VMware Certificate Authority)による

ESXi の証明書が更新できるようになりました。

web-client-60-10.png


地味な改善ですが、

これからは Web Client を使うようにアナウンスされていたり

vSphere 5.1 以降の新機能は Web Client でしか使用できなかったりするので

Web Client が使いやすくなることはありがたいです。

 

例示したメニューのように、いろいろ細部が改善されています。

そろそろ、これまで vSphere Client 派だった人も

Web Client を使ってもよいのではないかと思います。


ちなみに、vSphere Client は将来的に削除されるとのことですが、

vSphere 6.0 では、まだ生き残っています。


以上、vSphere 6.0 での Web Client の改善についてでした。

Configuring load balancing for vCloud Director

$
0
0

#Leia este post em português

According to VMware, the vShield Edge is an edge network security solution for virtual datacenters. It provides essential security features as gateway services, load balancing for Web, performance and availability.

With this, you can use the vShield Edge to load balance cells of the vCloud Director.

 

Ports used by vCloud Director:

Web Access - HTTP (80) and HTTPS (443)

Console Proxy - TCP (443)

 

1) Open the vShield Edge and the View Host & Cluster, click Datacenters > your datacenter > Network Virtualization > Edges > Add ( + );

 

loadbalance-vshield01.jpg

 

2) Set the name, hostname and description;

* If necessary, enable the HA option for high availability of the Edge.

 

3) Set the access credentials or keep the default credentials of the vShield Manager (User: admin | Password: default);

 

4) Set the size of the Edge, enable automatic generation of rules and click Add ( + ), then set the Cluster / Resource Pool and datastore for the appliance vShield Edge. If necessary, the Edge size can be changed later;

 

loadbalance-vshield04.jpg

 

5) Click on Add ( + ), set the name of the network interface, type, network will be connected and add the IP's to be used for balancing. As load balancing is configured for two services (Web Access and Proxy Console) is necessary to use two IP's (10.1.1.1 and 10.1.1.2);

 

loadbalance-vshield05.jpg

 

6) Enter the Default Gateway of the network;

 

7) Configure the firewall and HA according to your needs;

 

loadbalance-vshield07.jpg

 

8) Check the summary and if everything is ok, click Finish to start the deployment of the appliance;

 

9) Click the right button on the vShield Edge > Manage > Load Balancer > Pools;

 

10) To create the pool for the Web Access service click Add ( + ) > define a name (vCloud_Web_Access_Pool) > select HTTP (80), HTTPS (443) and ROUND_ROBIN > URI HTTP Service is setting the path "/ cloud / server_status"> add the IP of Cells Web Access vCloud > check the summary and click Finish;

 

loadbalance-vshield08.jpg

web-access-health-check.jpg

loadbalance-vshield10.jpg

 

* After clicking Publish Changes, click to enable the Load Balancer service.

 

loadbalance-vshield11.jpg

 

11) To create the pool for Proxy Console service click Add ( + ) > define a name (vCloud_Console_Proxy_Pool) > select TCP (443) and ROUND_ROBIN > URI HTTP Service is setting the path "/sdk/vimServiceVersions.xml"> change the port to TCP 443 > add the IP of Cells Console Proxy vCloud > check the summary and click Finish;

 

loadbalance-vshield12.jpg

console-proxy-health-check.jpg

loadbalance-vshield14.jpg

 

After applying the changes, you can view the poles as follows:

 

loadbalance-vshield15.jpg

 

12) Load Balancer, click Virtual Server > Add ( + ) > set the name of the virtual server (vCloud_Web_Access_VS) > enter the IP (created in Edge earlier) > select the existing pool (in this case vCloud_Web_Access_Pool) > set the HTTP options (80) and HTTPS (443) > click save;

 

loadbalance-vshield16.jpg

 

13) Load Balancer, click Virtual Server > Add ( + ) > set the name of the virtual server (vCloud_Console_Proxy_VS) > enter the IP (created in Edge earlier) > select the existing pool (in this case vCloud_Console_Proxy__Pool) > set the TCP (443) > click save;

 

loadbalance-vshield17.jpg

 

After applying the changes, you can view the virtual servers as follows:

 

loadbalance-vshield18.jpg

 

Perfect, load balancing is ready.

Now just create an entry in your DNS pointing to the virtual IP Edge set to Web Access, for example, create a record called "cloud" pointing to the IP 10.1.1.1.

 

loadbalance-vshield20.jpg

 

References:

http://www.vmware.com/files/pdf/products/vShield/VMware-vShield5-Edge-Datasheet.pdf

http://www.vmware.com/pdf/vshield_50_quickstart.pdf

http://www.vmware.com/files/pdf/techpaper/vShield-Edge-Design-Guide-WP.pdf

Congrats to CloudCred VMworld 2015 Pass Winners!

$
0
0

Congratulations to Three CloudCred 28 Day World Players!

CloudCredibility.com congratulates three lucky players who have won VMworld 2015 Event Passes thanks to their participation in our 28 Day World Contests!

 

If you haven't played at CloudCred, or if it's been a while, visit any of the four featured Worlds, which include over 2,000 tasks in more than 20 badge categories: SDDC, Desktop & Mobility, vSAN, Log Insight, DCV-EXAM, News & Events, and more. Earn badges, move up the leaderboard, win stuff. But most importantly, advance the skills you need the most - CloudCredibility.com.

 

Blog Yuri.jpg

 

 

 

 

From players who completed the 28 Day Promotion Badge Tasks:

Congrats to winner Yuri Mendoza: SargentCloud

 

 

 

 

 

 

 

 

 

Blog LooneyDuk.jpg

 

 

 

 

From players finishing in the Top 25 on the 28 Day World Leaderboard:

Congrats to winner Greg Petersen: Looneyduk

 

 

 

 

 

 

 

 

 

Screen Shot 2015-03-16 at 10.39.43 AM.png

 

 

 

 

And from players Registering for the Launch & completing CloudCred Task 1919:

Congrats to winner Chuck Cocker: chuckrox

 

 

 

 

 

 

 

 

 

We look forward to seeing these players at VMworld 2015 in San Francisco - all three selected US passes.

Great job - and as always, thanks to everyone who participated for being valued CloudCred players.


Deleting a user entity vCAC

$
0
0

Recently we had an issue with a user which when they tried to view a vCAC machine on the Items page and it would not completely load.  Only a couple action items would appear.  The machine information, storage, networking, properties and Snapshots tabs were not visible.  By accident, while looking into vCAC machine ownership change via vCO, I discovered how to remove a user entity.  We tried this and it solved the user's problems.

 

Inputs: ADUser (AD:User), vCACHost (vCAC:VCACHost)

 

var Owner = ADUser.userPrincipalName;

System.log("Owner: " + Owner);

 

var modelName = 'ManagementModelEntities.svc';

var entitySetName = 'Users';

var headers = null;

var properties = new Properties();

 

var entity = vCACEntityManager.readModelEntitiesByCustomFilter(vCACHost.id, modelName, entitySetName, properties, headers);

 

var entityID = null;

var i=0;

for each (var item in entity){

    if(Owner == entity[i].properties.get("UserName"))  {

        entityID = i;

    }  

    System.log("User Name - " + entity[i].properties.get("UserName"));

    //System.log("User Name - " + entity[i].properties);

    //System.log(i);

    ++i;

}

 

if (entityID != null) {

    var updateEntity = entity[entityID];

    //Will delete entity////////////////////////////////Will delete entity////////////////////////////////Will delete entity///////////////////////

    var updated = vCACEntityManager.deleteModelEntityBySerializedKey(vCACHost.id, modelName, entitySetName, updateEntity.keyString, headers);

    System.log("Removed User Entity");

}

else {

    System.log("User Not Found");

}

  

 

 

 

This worked for our situation in a testing environment.  Use at your own risk.

VMware / NVIDIA Direct Access

$
0
0

VMware and NVIDIA are pleased to announce the launch of the Direct Access program. Following on the heels of the successful Early Access program, Direct Access is set up to provide information and support for customers who are deploying (or considering deploying) a GRID vGPU solution. As part of the Direct Access program, we will be providing new documents, webcasts and support sessions to ensure participants have the latest and greatest content to support their deployment.

 

We have recently updated our joint deployment guide, which can be found here:

GRID vGPU Deployment Guide | NVIDIA

 

This is a live document, so any changes are captured real-time in the document at this link.

 

We look forward to working with you all to make your joint deployment a success!

Problem running VMWare Workstation (Windows version)

$
0
0

Have you ever found this issue running suspended VM in VMWare workstation?

 

 

 

 

After a VMWare workstation crash when you try to run or resume a  suspended VM could be a apper the above message.

This happens because process VMWare workstation can release the authorization lock to run VM; in fact this problem affect VM which are running before VMWare workstation crash.

 

To solve this issue simply:

  • Close VMWare workstation
  • run Task Manager and find vmware-vmx.exe process

 

  • Kill this process and start VMWare workstation again
  • Resume or start VM
 

 

In some cases it would be necessary to restart VMWare authorization service, simply doing this steps:
  • Close VMWare workstation

  • run as Administrator services.msc

  • Find process "VMware Authorization Service" and restart it
  • Start VMWare workstation again
  • Resume or start VM

 

Change vCAC VM Owner

$
0
0

I opened a ticket with VMware because all three different ways I found to change the owner were zeroing out the daily cost and cost to date.  Engineering created a workflow that works. 

 

There are two input requirements:

 

  1. Name of the virtual machine
  2. Name of the user

 

  There is also an attribute (vCACCAFEHost) that needs to be set prior to running the workflow.

Putting StorMagic Behind the Arrow - Arrow becomes authorized distributor of StorMagic SvSAN Virtual Storage Solution

$
0
0

A lot has changed in the past four years. In 2011, StorMagic started to put more emphasis on creating a better virtualization and high availability solution for distributed enterprises and remote office/branch office (ROBO) environment. ROBO is where the enterprise meets the customer. Today I’m excited to announce the next phase in our channel strategy: our distribution partnership with Arrow Electronics, which will sell the StorMagic SvSAN through Arrow’s community of solution providers in the U.S. and Canada.

 

stormagic-arrow[1].png

What does this mean for potential end users? As a $20 billion supply channel partner, Arrow’s distribution network will make it easier for remote sites and SMBs to gain the data availability of shared storage without the cost, complexity, or single point of failure of a SAN. Arrow will help us match customer requirements with local and regional resellers who are their customers’ trusted advisors.

On the other hand, VARs and solution providers in Arrow’s network will expand their virtualization and storage lines of business with a product in SvSAN that only requires two x86 server nodes to deliver high availability and excellent performance. SvSAN works seamlessly with a VMware or Microsoft hypervisor, appearing no different to a physical SAN but with the advantages of no single-point of failure, lower cost, higher performance through internal rather than network interfaces and simplified management. With StorMagic, Arrow solution provider partners can cut operating and capital costs by 40 percent and prevent downtime for customers by leveraging direct attached or internal server disks, including solid-state drives, and presenting all of it as centrally managed, virtualized shared storage for business critical applications.

For many years, the indirect channel has played a critical, strategic role in both our business and our customers’ business. StorMagic launched our first channel program in 2007. Over time we’ve built out our channel and technology partnership programs to scale our growth, deliver new software innovations faster to market and meet enterprise customers at the edge. In 2010 we launched in Japan to grow routes to market outside the United States and EMEA. In 2012, we introduced version 5 of our SvSAN, the first virtual storage appliance (VSA) aimed specifically at ROBO, which opened up new opportunities for our resellers that had been previously focused on core data center infrastructure solutions.

Last month, we expanded our partnership with VMware to deliver high availability with just two server nodes whereas other VSA solutions require a minimum of three physical servers at each site to provide highly available shared storage that protects against data corruption. The two-node entry configuration of StorMagic SvSAN allows VMware and its channel partners to recommend vSphere ROBO together with SvSAN for remote environments that don’t have low latency or high capacity requirements per site, but must have highly available shared storage.

The economics of the virtualized data center is shifting from the core to the remote edge and we’re finding that the market is coming to StorMagic. VMware and Arrow and hundreds of solutions providers and systems integrators are recognizing the benefits we bring to our strategic partnership and respective markets. Together, we’ll do our best to drive more shifts in the market that will expand opportunity for mutual success — for our partners and our customers.

To learn more about the StorMagic and Arrow Electronics announcement, read the press release in full here.

Viewing all 3135 articles
Browse latest View live