Quantcast
Channel: VMware Communities : Blog List - All Communities
Viewing all 3135 articles
Browse latest View live

Understanding VMFS Datastores

$
0
0

   

I have gone through some vSphere 5.5 Storage Documentation and find some useful information, so i thought to share with you some key points.

Datastores are logical containers and datastores can also be used for storing ISO images, virtual machine templates, and floppy images.

Different VMFS versions and their compatibilities with ESX/ESXi hosts :

 

 

 

VMFS

ESX/ESXi 3.x hostESX/ESXi 4.x hostESXi 5.x host
VFMS2RORON
VMFS3RWRWRW
VMFS5NNRW

 

  • RW- Read and Write Support
  • RO- Read Only Support
  • N- No access, ESXi 5.x does not support VMFS2. If your datastore was formatted with             VMFS2 , First upgrade the datastore to VMFS3

 

How VMFS5 Differs from VMFS3:

  • Greater than 2TB storage devices for each VMFS extent.
  • Support of virtual machines with large capacity virtual disks, or disks greater than 2TB. Because VMFS3 datastores do not support large capacity virtual disks, you cannot move virtual disks greater than 2TB from a VMFS5 datastore to a VMFS3 datastore.
  • Increased resource limits such as file descriptors.
  • Standard 1MB file system blocks size with support of 2TB virtual disks.
  • Greater than 2TB disk size for RDMs.
  • Support of small files of 1KB.
  • Any file located on a VMFS5 datastore, new or upgraded from VMFS3, can be opened in a shared mode by a maximum of 32 hosts. VMFS3 continues to support 8 hosts or fewer for file sharing. This affects VMware products that use linked clones, such as View Manager.
  • If you upgrade vmfs3 to vmfs5 Block size remain same of VMFS3.

VMFS Datastores and Storage Disk Formats

VMFS datastore use either the master boot record (MBR) format or the GUID partition table (GPT) format.

With ESXi 5.x , If you create a new datastore , the device is formatted with GPT. This is the reason you can create datastore larger than 2TB and upto 64TB for a single extent

VMFS3 uses MBR format for their storage devices, consider following items when working with VMFS3:

  • When you upgrade VMFS3 datastore to VMFS5 datastore, datastore uses MBR format Conversion to GPT happen only after you expands the datastore to a size larger than 2TB.
  • only after you expand the datastore to a size larger than 2TB.

 

VMFS Datastores as Repositories

ESXi can format SCSI-based storage devices as VMFS datastores. VMFS datastores primarily serve as

Repositories for virtual machines. In ESXi 5.5 with VMFS5, you can have up to 256 VMFS datastores per host, with the maximum size of 64TB. The required minimum size for a VMFS datastore is 1.3GB, however, the recommended minimum size is 2GB.

  • When you run multiple virtual machines, VMFS provides specific locking mechanisms for virtual machine files, so that virtual machines can operate safely in a SAN environment where multiple ESXi hosts share the same VMFS datastore.
  • As a cluster file system, VMFS lets multiple ESXi hosts access the same VMFS datastore concurrently. You can connect up to 128 hosts to a single VMFS datastore.

 

VMFS Metadata Updates

A VMFS datastore store virtual machine files, directories, symbolic links, RDM descriptor files, and so on.

The datastore also maintains a consistent view of all the mapping information for these objects. This

Mapping information is called metadata. Metadata is updated each time you perform datastore or virtual machine management operations.

For Example :

  • Creating, growing, or locking a virtual machine file
  • Changing a file’s attributes
  • Powering a virtual machine on or off
  • Creating or deleting a VMFS datastore
  • Expanding a VMFS datastore
  • Creating a template
  • Deploying a virtual machine from a template
  • Migrating a virtual machine with vMotion
  • When metadata changes are made in a shared storage environment, VMFS uses special locking mechanisms to protect its data and prevent multiple hosts from concurrently writing to the metadata.


VMFS Locking Mechanisms

In shared storage environment, when multiple hosts access the same VMFS datastore, specific locking

mechanisms are used. These locking mechanism prevent multiple hosts from concurrently writing to the

metadata and ensure that no data corruption occurs.


VMFS supports SCSI reservations and atomic test and set (ATS) locking.

 

SCSI Reservations: VMFS uses SCSI Reservation on storage devices that do not support hardware acceleration SCSI reservations lock an entire storage device while an operation that requires metadata protection is performed. After the operation completes, VMFS releases the reservation and other operations can continue. Because this lock is exclusive, excessive SCSI reservations by a host can cause performance degradation on other hosts that are accessing the same VMFS.

Atomic Test and Set: For storage devices that support hardware acceleration, VMFS uses the ATS algorithm, also called hardware assisted locking. In contrast with SCSI reservations, ATS supports discrete locking per disk sector. For information about hardware acceleration, see Chapter 24, “Storage Hardware Acceleration,” on page 231 in VMware Storage Documentation 5.5.


Host IPMI System Event Log Status alarm is triggered

$
0
0

Alert Alarm triggered – Host IPMI System event Log Status

 

Cause

Every time when the alarm monitors the capacity of the IPMI System Event.log file and is triggered when the log is full.

 

Resolution

1: Open vCenter Server using vSphere Client

2: Select Host

3: Click Hardware Status Tab

4: Click System Event Log

5: Click Reset Event Log

5: Click Reset Sensors to reset the host sensors.

s1

Host doesn't have a journal

$
0
0

Error

You encountered following error message when you power on virtual Machine.

error1

Resolution:

Every ESX host keeps a journal for each VMFS-3 Volumes. If a VMFS Volume that is shared to Four Host has four journals written on it.

The error stops after the virtual machine has been VMotioned because new ESX host still has a journal on that volume.

VCP5-DCV Exam Prep Task Series - Part II, Monday April 20

$
0
0

VCP-DCV-150x150.jpeg

 

 

 

VCP5-DCV Exam Prep Task Series - Part II

April 20 at CloudCredibility.com .

 

CloudCred announces the second wave of the VCP5-DCV Exam Preparation Task Series.

Currently, +80 DCV-EXAM tasks are available at CloudCred, covering the first four of the seven sections outlined in the VCP5-DCV Exam Blueprint.

On April 20, +100 additional DCV-EXAM tasks will roll out, covering the last three sections.

 

 

 



+100 New Tasks:

  • Go live Monday, April 20
  • Can be found under the DCV-EXAM Badge at CloudCredibility.com
  • Continue to follow the VCP5-DCV Exam blueprint, version 3.5
  • Begin with Introductory tasks for each section which outline the resources and knowledge points covered in that section.
  • Progress in order, and thoroughly cover each objective listed for a section
  • Include links to resources
  • Include challenging questions using varying formats: File uploads, Multiple-Choice, Text-box fill-ins, and/or True/False
  • Are authored by vExperts & IT professionals with a breadth of experience and expertise


CloudCredis pleased to have partnered with these individuals who gave generously of their skills and time:


Marc Image.jpeg

 

 

Author Marc Crawford: Systems Engineer for NJVC & St Louis VMUG Leader

VPC4&5, VCAP5-DCA, CCNA, MCSE, MCTS, A+, Security +, Network +, vExpert 2015

Blog:http://blog.marccrawford.com

Twitter: @uber_tech_geek

 

 

 

 

 

 

Nigel Image.jpeg

 

 

Author Nigel Hickey:Infrastructure Administrator for National Specialty Alloys

VCP5– DCV, VCA– DCV, VCA – WM, VCA – Cloud, vExpert 2014, 2015

Blog: http://nigelhickey.com

Twitter: @vCenterNerd




 


Screen Shot 2015-04-01 at 9.50.36 AM.png

 

 

Author Andrew Mauro: IT Pro. VMUG IT Co-founder & board member. VMTN Moderator.

VCDX-DCV, VCAP -*, VCP -*, vExpert 2010-2015, ...

Blog: http://vinfrastructure.it/en

Twitter: @Andrea_Mauro





Mike Medrano pix.jpg



Author Mike Medrano: Technology Consultant, EUC – APAC for Global Tech

MCP, VCP, MCSE, MCITP, MCTS, ITIL V3, DCSE

LinkedIn: http://linkedin.com/in/geekiemike

Twitter: @GeekieMike

vCAC (vCloud Automation center )as Postgres Cluster DB

$
0
0

Hi All,

 

vCAC(vCLoud Automation Center ) is having the Internal DB i.e postgres but if you want the configure the vCAC that will work as Postgres DB cluster then you can use below steps

 

vRealize Automation center(vCAC) postgres DB cluster Steps by Step Configuration :

 

1.Deploy 2 vCAC appliance  Download ovf10 and deploy ovf through vCenter Server.
2.Manually stop the service (service vco-server stop and Service vcac-server stop). Since we are going to use this Node as Db not as vCAC appliance.
3.Run this command from both the vCAC Applaince (usermod –A wheel postgres) that will add the user postgres to wheel.
4.GO to vi /etc/ssh/sshd_config file add line (AllowGroups wheel users) and save the file and restart the ssh service.

5.  Go to the file vim /storage/db/pgdata/postgresql.conf and uncomment "listen_address" and *  in front of this line  and save the file.

6.  Restart the postgres database (service vpostgres restart).

7.  GO to the Node 1 & 2  and  run  "su - postgres" .

8   Add user replicate(/opt/vmware/vpostgres/current/share/create_replication_user replicate) and give some password which doesn't have special Character like *&().

9.  Go to file vim /storage/db/pgdata/pg_hba.conf and add the line (host vcac replicate 0.0.0.0/0 md5) and save the file using  :wq

10. Now create one Directory inside (cd /var/vmware/vpostgres) using (mkdir 9.2-archive).

11. Give permission to postgres  user to write in this directory(chown postgres:users 9.2-archive).

12. Login to Node 1 and run(su – postgres).

13. Go to directory (/opt/vmware/vpostgres/current/share/) and run  ./run_as_replica –h myhostname -b -W -U replicate

 

 

 

 

 

Caution About:

1. Password should not have any special character for replication user.

2. listen_address should be listen for all the Node i.e *.

3. Replicate user should have permission to write into directory.



 

vCenter Server Install using MS SQL 2012 AAG(Always On ) Database

$
0
0

In this article, I am going to give in the installation and configuration of VMware vCenter in AAG(Always ON) Database.

 

Steps to Configure:

 

1. Install the Microsoft Window 2012(Enterprise or datacenter Edition) Server on  3 Nodes(Node1.local.domain , Node2.local.domain,Node3.local.domain).

2. Install the Microsoft Failover Clustering Service in all the 3 Nodes (Server Manager -> Add Roles ->Select Failer Over Cluster and .Net 3.5 Service -> Install-> Finish) .

3. GO to Administrative Service -> Failover Cluster -> Create Cluster Wizard ->Add All the Nodes name.

4. Cluster Name  "Name to your Cluster" and in the Window Down you need to assign one IP to cluster and Network Details .

5. Click Next and Evaluate all provided input is correct . Click Next to create Cluster.

6. Now Move to other Node and Refresh the Failover Cluster Manager to Reflect the Cluster Detail.

7. you need to validate the Cluster, To Validate Cluster you need to trigger "Validate Cluster" Hyperlink  and It should pass all the validation  case . You Can Ignore the quram Setting Details.

8. Now you Need to Install the MSSQL database in all the Node by Selecting the First Option  "New SQL Server stand-alone Installation " .

9. Once the installation done you can go and create database in the database Manually Like VCDB(Open Managment Studio -> Connect to Datatbase machine -> Right Click on database and create database ).

10. After Creating the database you need to tack the partial or full Backup of that database(Right Click on Database you created in last -> Tasks-> Back Up).

11. Your failover cluster is ready and Now you need to create AAG (Always On high Availability ).

12. Right Click On Always On High Availability Folder Inside the Management Studio and click on "Always On High Availability Wizard" .

13. Give Some name to your AAG Group-> Select the Database you created previously ->  Select Replica Node (Node2 and Node3){  Select Automatic failover for 2 Node and Synchronous Commit for 2 Node and readable sector Read intent Only  }-> Select End point -> Configure Listener (Optional ) and Finish.

14. Your DB replication will start on other 2 Node.

 

Now your VCDB is up on the AAG configuration. While doing the VC installation you need give the Cluster IP which we used to configure Failover cluster and your database Details.

 

This is simple step to configure the vCenter Server in the Microsoft AAG (Always ON Availability ) Database Server.

 

If you find any Difficulty in Configuration then please post comment. i Will Help to troubleshoot that.

vcops in HA mode on cluster(AAG) Db

$
0
0

This blog is giving you the configuration guide to install the vcops in HA mode using the db in AAG mode.

1. Deploy vcops ovf deployment.

2. Configure the time zone and time configuration.

3. Install CA certificates in the appliance.

4. Now give the db that is configured in aag database(refer previous article to configure Aag database) .

5. Vcops will initialize the db.

6. Now clone the same virtual machine and deploy the new virtual machine using clone template and change the hostname and IP details.

7. Now select the cluster mode radio button and vcops will detect each other which is active/passive configuration.

 

If you any issue while configuration please post your error or issue.

Urgent: Require PowerShell to gather all snap shot with their vm created by the particular ( backup vm) VM.)

$
0
0

Hi All,

 

I have my Commvault back server creating a snap shots on few machines and leaving unconsolidated, so I require Powershell to gather

snap shot created by Commvault server with their vm names.


ESXi 6.0 ローカルユーザのパスワードルール変更について。(PowerCLI にて)

$
0
0

少し前のこのポストの続きですが・・・

vSphere 6.0 の 新機能について。(ESXi ローカルユーザ管理)


ESXi 5.5 までは、パスワードルールを変更する場合は、認証にかかわる(PAM の)設定ファイルを

ESXi に直接ログインしたうえで、vi 等のテキストエディタで編集する必要がありました。

※Enterprise Plus であれば Host Profile でも設定可能ですが・・・


ESX、ESXi 4.x および 5.x でのパスワードの要件と制限

http://kb.vmware.com/kb/2079822


この設定ファイル(/etc/pam.d/passwd)を直接編集していました。

~ # vmware -vl

VMware ESXi 5.5.0 build-2456374

VMware ESXi 5.5.0 Update 2

~ # cat /etc/pam.d/passwd

#%PAM-1.0

 

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=8,8,8,7,6

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so


ESXi 6.0 からは、パスワードルールが ESXi の詳細オプション

「Security.PasswordQualityControl」で管理されるようになりました。

そのため、vCenter から管理下の ESXi の設定をまとめて変更可能になります。

 

ESXi のパスワード、ESXi のパス フレーズ、およびアカウント ロックアウト

http://pubs.vmware.com/vsphere-60/topic/com.vmware.vsphere.security.doc/GUID-DC96FFDB-F5F2-43EC-8C73-05ACDAE6BE43.html

 

ESXi 6.0 の /etc/pam.d/passwd ファイルにも、

詳細オプションで設定変更するようにコメントがあります。

※ちなみに、ESXi 6.0 からパスワードルールのデフォルト値も変更されています。

[root@hv60n04:~] vmware -vl

VMware ESXi 6.0.0 build-2494585

VMware ESXi 6.0.0 GA

[root@hv60n04:~] cat /etc/pam.d/passwd

#%PAM-1.0

 

# Change only through host advanced option "Security.PasswordQualityControl".

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=disabled,disabled,disabled,7,7

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so

 

ちなみにパスワードルールは、ファイルを編集すると即時反映されます。

パスワードルールは、passwd コマンド実行時にも表示されるようになっていて

たとえば ESXi の root ユーザのパスワードを変更しようとすると下記のようになります。

※これは ESXi というより passwdqc の機能のため、以前の ESXi でも表示されます。

[root@hv60n04:~] passwd root

Changing password for root

 

You can now choose the new password.

 

A valid password should be a mix of upper and lower case letters,

digits, and other characters.  You can use a 7 character long

password with characters from at least 3 of these 4 classes.

An upper case letter that begins the password and a digit that

ends it do not count towards the number of character classes used.

 

Alternatively, if noone else can see your terminal now, you can

pick this as your password: "gehyl=ebbg&wbo".

 

Enter new password:

 

パスワードルール設定変更(GUI にて)

 

Web Client から ESXi の詳細設定を見ると、

新たに「Security.PasswordQualityControl」が追加されていることがわかります。

esxi60-pam-passwdqc-01.png


この設定を変更すると、/etc/pam.d/passwd に即時反映されます。

esxi60-pam-passwdqc-02.png


ちなみに、vSphere Client でも変更可能です。

esxi60-pam-passwdqc-03.png

 

パスワードルール設定変更(PowerCLI にて

 

まず、vCenter に接続します。

PowerCLI> Connect-VIServer vc60n02.godc.lab

 

PowerCLI> $global:DefaultVIServer | select Name,Version,Build | ft -AutoSize

 

Name             Version Build

----             ------- -----

vc60n02.godc.lab 6.0     2559267

 

ESXi のバージョンは、6.0 GA です。

今回の ESXi のホスト名は hv60n04.godc.lab です。

PowerCLI> Get-VMHost hv60n04.godc.lab | select Name,Version,Build | sort Name | ft -AutoSize

 

Name             Version Build

----             ------- -----

hv60n04.godc.lab 6.0.0   2494585

 

Get-AdvancedSetting で、Security.~ という名前のパラメータを見てみます。

Security.PasswordQualityControl のほかにも、

アカウント ロックアウト関連のパラメータがあります。

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.* | ft Name,Value -AutoSize

 

Name                            Value

----                            -----

Security.PasswordQualityControl retry=3 min=disabled,disabled,disabled,7,7

Security.AccountLockFailures    10

Security.AccountUnlockTime      120


それでは、パスワードルールを変更してみます。

ESXi 5.x の頃のデフォルト値にしてみました。

ちなみに、Get-VMHost の後に ESXi を指定しなければ、

接続中の vCenter 管理下の ESXi すべてをまとめて設定変更することができます。

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.PasswordQualityControl | Set-AdvancedSetting -Value "retry=3 min=8,8,8,7,6" -Confirm:$false

 

Name                 Value                Type                 Description

----                 -----                ----                 -----------

Security.Password... retry=3 min=8,8,8... VMHost

 

 

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.PasswordQualityControl | ft Name,Value -AutoSize

 

Name                            Value

----                            -----

Security.PasswordQualityControl retry=3 min=8,8,8,7,6

 

PowerCLI での設定変更は、/etc/pam.d/passwd に即時反映されました。

[root@hv60n04:~] cat /etc/pam.d/passwd

#%PAM-1.0

 

# Change only through host advanced option "Security.PasswordQualityControl".

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=8,8,8,7,6

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so

 

これまで、ESXi のローカルユーザのパスワードルールは

デフォルトでは無効である ESXi Shell や SSH を有効にしたうえで

ESXi に直接ログインしなくては変更できませんでした。

 

vCenter にログインするだけで変更できるようになったので

どうしてもパスワードの複雑性が必要な環境では、結構便利になったのではないかと思います。

 

以上、ESXi 6.0 のパスワードルール変更でした。

VMware Photon Linux が公開されました。

$
0
0

VMware から、Docker などコンテナむけの Linux ディストリビューション

Photon Linuxが公開されました。

ロゴもフォトンっぽいかんじです。

おなじ目的の OS としては、CoreOS や Red Hat Atmic Host あたりが挙げられます。


すでに、下記のサイトあたりから Photon Linux の ISO インストーラファイルがダウンロードできます。


VMware Photon

https://vmware.github.io/photon/

ちなみに インストーラの ISO は 1GB くらいです。

photon-pj-01.png

 

また、GitHub からソースをダウンロードして、自分で ISO をビルドできるようになっています。

ちなみに、ビルド環境は Ubuntu を想定しているようです。


GitHub

https://github.com/vmware/photon/

 

 

そして、VMTN (VMware Community)にも、すでにコミュニティのページが用意されていました。


Project Photon (英語)

https://communities.vmware.com/community/vmtn/devops/project-photon

この Project の目的もあってか、ページの位置づけは「DevOps」カテゴリ配下になっています。

photon-pj-02.png

 

プロダクトの位置づけは Technical Preview なので、製品サポートがあったりするわけではありませんが、

その分 Community 向けなプロダクトな気がしていて、面白そうだと思っています。

 

起動直後の画面にも「Technical Preview」と表示されてます。

photon-pj-03.png

 

せっかく VMware から Linux ディストリビューションが出たので、

普段は執拗に Oracle Linux を使用している このブログでも Photon を使ってみたいと思います。

 

以上、Photon Linux 登場についてでした。

VMware Photon Linux の Install ~ Docker コンテナ起動。

$
0
0

さっそく、VMware Photon Linux 1.0 TP1を VM にインストールして

ためしに Docker コンテナを起動してみました。

 

今回の環境は、vSphere 5.5(vCenter 5.5 / ESXi 5.5)でインストールしています。

Photon Linux は vSphere に最適化されているといわれていますが、

実際は ESXi / VMware Workstation に限らずインストールすることができるはずです。

 

こちらもどうぞ(前回のポスト)

VMware Photon Linux が公開されました。

 

参考

Getting Started Using Project Photon on VMware vSphere 5.5 & 6.0

https://vmware.github.io/photon/assets/files/getting_started_with_photon_on_vsphere.pdf



Photon Linux のインストール


今回は、vSphere 5.5 を使用しているので

VM のゲスト OS 選択は「その他の 3.x Linux (64 ビット)」にしてあります。

photon-linux-all-01.png


参考にしたガイドには 2 vCPU が推奨とありますが、1 vCPU でもインストール可能です。

今回は、CPU / メモリ / ハードディスクのスペックはデフォルトのままにしてみました。

ディスクプロビジョニングは、容量節約のため Thin Provisioning にしています。

VM バージョンは 10 (vmx-10)です。

photon-linux-all-02.png


VM には、「設定の編集」画面で、事前にデータストアに配置しておいた

Photon の インストール ISO イメージを 仮想 CD /DVD ドライブに接続しています。

「パワーオン時に接続」にチェックを入れておくと、

VM 起動時に ISO イメージからインストーラを起動できます。

photon-linux-all-03.png


仮想 CD ドライブに ISO を接続した状態で、VM をパワーオンすると、

Photon インストーラが起動します。Enter キーで進めます。

※今回は VMware Remote Console(VMRC)を使用しています。

photon-linux-all-04.png

 

ライセンス同意の画面です。「Accept」で Enter キーを押すと進めます。

photon-linux-all-05.png


今回、VM に割り当てた仮想ディスクは 1本だけなので、そのまま「Enter」キーを押します。

photon-linux-all-06.png


仮想ディスク上のデータ削除について確認が表示されるので「Yes」。

この次の画面が表示されるまで、数秒まちます。

photon-linux-all-07.png

 

インストールオプションの選択画面です。

Photon Linux はインストール時に4つのオプションが選択できます。

デフォルトは「Photon OS (Micro)」ですが、

今回は「Photon Full OS (All)」を選択しています。

  • Photon OS (Micro)
  • Photon Container OS (Minimal)
  • Photon Full OS (All) ←今回はこれを選択。
  • Photon Custom OS

photon-linux-all-08.png

 

Linux に設定するホスト名を入力します。

photon-linux-all-09.png


root ユーザのパスワードを入力します。簡単すぎるパスワードだとエラーになります。

パスワードを入力して Enter を押すと・・・

photon-linux-all-10.png

 

そのままインストールが開始します。

photon-linux-all-11.png

 

環境に依存するものではありますが、

インストール処理にはあまり時間がかかりません。

インストールが終了すると、かかった時間が表示され

今回は 6分程度で終了しました。

※今回の画面には「Photon has been installed in 358 secs」とあります。

 

ここで何かキーをおすと、OS が再起動されます。

photon-linux-all-12.png


OS 起動時には Photon の画面が表示されますが、

すぐに CLI(bash)のログインプロンプトが表示されます。

インストール直後は root でログインできます。

※パスワードはインストーラで指定したものです。

 

ちなみに、SSH でログインする場合は、useradd と passwd コマンドなどで

root 以外のユーザを新規作成することになると思います。

 

画面は下記のような感じです。

photon-linux-all-14.png

 

 

今回の Photon Linux の環境

 

Photon Linux の Linux カーネルバージョンは 3.19.2 です。

Photon Linux のディストリビューションのバージョンは、/etc/lsb-release ファイルに記載されていて、

今回は「VMware Photon 1.0 TP1」です。

root [ ~ ]# uname -a

Linux photon01 3.19.2 #1-photon SMP Wed Apr 15 22:37:11 UTC 2015 x86_64 GNU/Linux

root [ ~ ]# cat /etc/lsb-release

DISTRIB_ID=VMware Photon

DISTRIB_RELEASE=1.0 TP1

DISTRIB_CODENAME=Photon

DISTRIB_DESCRIPTION=VMware Photon 1.0 TP1

 

ネットワークはデフォルトでは DHCP による自動設定で、

今回は vNIC が1つだけなので eth0 に外部からアクセスできる IP アドレスが設定されます。

ちなみに、キーボード設定は英語配列です。

 

「Photon Full OS (All)」 では、

Docker も 1.5 がインストールされています。

root [ ~ ]# rpm -q docker

docker-1.5.0-3.x86_64

 

あまりいい確認方法ではないかもしれませんが、

この Photon Linux は ESXi 上の VM で起動しています。

root [ ~ ]# dmesg | grep -i Hypervisor

[    0.000000] Hypervisor detected: VMware

[    0.000000] TSC freq read from hypervisor : 1696.074 MHz

[    0.692326] [drm] Max dedicated hypervisor surface memory is 163840 kiB

 

 

Docker でのコンテナ起動


Docker を有効化して、コンテナを起動してみます。

Photon Linux がインターネットにアクセスできる状態であれば、

デフォルトで Docker Hub からコンテナのイメージをダウンロードできる状態になっています。

ついでに、Docker のバージョンも表示しておきます。

root [ ~ ]# systemctl start docker

root [ ~ ]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /lib/systemd/system/docker.service.

root [ ~ ]# docker version

Client version: 1.5.0

Client API version: 1.17

Go version (client): go1.4.1

Git commit (client): a8a31ef

OS/Arch (client): linux/amd64

Server version: 1.5.0

Server API version: 1.17

Go version (server): go1.4.1

Git commit (server): a8a31ef

 

Docker Hub から vmwarecna/nginx イメージをダウンロードして起動します。

名前の通り VMware Cloud Native Apps(多分)の オフィシャル Nginx イメージで、

起動すると Photon のスプラッシュスクリーンが表示されます。

 

ちなみに、レジストリのページはこれです。

https://registry.hub.docker.com/u/vmwarecna/nginx/

photon-linux-cna-nginx.png

 

下記のコマンドラインで、イメージのダウンロード~コンテナ起動されます。

今回は、Web ブラウザから TCP 8050 番ポートでアクセスできるようにコンテナを起動してみました。

root [ ~ ]# docker run -d -p 8050:80 vmwarecna/nginx

Unable to find image 'vmwarecna/nginx:latest' locally

Pulling repository vmwarecna/nginx

6d36a12c92d5: Download complete

511136ea3c5a: Download complete

e977d53b9210: Download complete

c9fa20ecce88: Download complete

184d60f5cc4f: Download complete

96d31e36bd8a: Download complete

fd2224b9a216: Download complete

7f3a2bd1e995: Download complete

4c4851e85e94: Download complete

560d74bc7ae1: Download complete

07f0aa77ae76: Download complete

126105e511b8: Download complete

775024331ffa: Download complete

db26ae25be15: Download complete

Status: Downloaded newer image for vmwarecna/nginx:latest

9d78b3e6786e888ae6a9859f2b053b963bb143bc2403b076c0216017ee19cbcf

 

ダウンロードして登録されたイメージはこれです。

root [ ~ ]# docker images

REPOSITORY          TAG                 IMAGE ID            CREATED             VIRTUAL SIZE

vmwarecna/nginx     latest              6d36a12c92d5        9 days ago          93.48 MB

 

そしてこのイメージからコンテナも起動されています。

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

9d78b3e6786e        vmwarecna/nginx:latest   "nginx -g 'daemon of   7 seconds ago       Up 6 seconds        443/tcp, 0.0.0.0:8050->80/tcp   fervent_fermat

 

Web ブラウザから「 http: //<Photon Linux の IP アドレス>:8050/」 にアクセスすると

Nginx 上の Photon のページがみられます。

photon-linux-all-15.png

 

ちなみに当然ながら、Docker Hub などから他の Docker のイメージを入手して

コンテナを起動することができます。

 

たとえば、Doker Hub にある

Oracle Linux 6 のイメージをダウンロード~コンテナ起動してみました。

https://registry.hub.docker.com/u/oracle/oraclelinux/

root [ ~ ]# docker run -it oracle/oraclelinux:6 /bin/bash

Unable to find image 'oracle/oraclelinux:6' locally

Pulling repository oracle/oraclelinux

8dee47b714f6: Download complete

51407df89f64: Download complete

bb12766ba279: Download complete

Status: Downloaded newer image for oracle/oraclelinux:6

[root@92a13df410ee /]#  ★ここから、起動したコンテナの中に入っている。

[root@92a13df410ee /]# cat /etc/oracle-release

Oracle Linux Server release 6.6

[root@92a13df410ee /]# uname -a  ★コンテナのカーネルは Photon のものになっている。

Linux 92a13df410ee 3.19.2 #1-photon SMP Wed Apr 15 22:37:11 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux

[root@92a13df410ee /]#

[root@92a13df410ee /]# root [ ~ ]#  ★ここで「Ctrl + p + q」キーでコンテナから抜けた。

root [ ~ ]# docker ps  ★起動中コンテナが増えている。

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

92a13df410ee        oracle/oraclelinux:6     "/bin/bash"            36 seconds ago      Up 35 seconds                                       prickly_goodall

9d78b3e6786e        vmwarecna/nginx:latest   "nginx -g 'daemon of   22 minutes ago      Up 22 minutes       443/tcp, 0.0.0.0:8050->80/tcp   fervent_fermat

root [ ~ ]#

 

上記のように、Photon Linux 上で Oracle Linux 6 のイメージを起動できました。

この調子で Red Hat Linux や Cent OS のコンテナもいけるはず・・・

 

以上、Photon Linux のインストールとコンテナ起動でした。

Información de soporte en VMware

$
0
0

En muchas ocasiones, los clientes me preguntan cómo crear un caso de soporte, o cómo cambiar licencias en el portal de MyVMware. Creo que mucha de esta información está condensada en algunos KB y para que queden recogidos aquí y sea fácil de consultar.

 

En este enlace My VMware Account Support Request Overview además de la información específica de cómo abrir un caso de soporte How to file a Support Request in My VMware, podéis consultar información para otro tipo de acciones como gestión de usuarios en el portal, gestión de licencias, etc.

 

En cuanto a los teléfonos de soporte, en esta página Support Phone Numbers tenéis los teléfonos de soporte para España y resto de países. Tened en cuenta que el soporte telefónico es en inglés. Se puede solicitar atención en español, pero no siempre está garantizada la disponibilidad.

 

Los modelos de soporte y tiempos de respuesta están recogidos en la página Support Policies podéis acceder a la guía de soporte y en Support Offerings tenéis una comparativa de las diferentes modalidades de soporte, con más detalles del Soporte Production (24 x7) que es el más utilizado para los entornos de VMware  en Production Support & Subscription

 

Una última información que también puede resultar interesante es conocer hasta cuándo se puede recibir soporte de un producto y versión concreta. Esta información está recogida en Lifecycle Support Phases y en la matriz en la que se listan los productos y sus versiones con las fechas exactas Lifecycle Product Matrix.

Photon Linux の VMware Tools。

$
0
0

VMware Photon Linux は、コンテナむけの Linux OS で、

VMware vSphere 環境に最適化されているそうです。


VMware Photon

https://vmware.github.io/photon/


ためしにインストールしてみると、

VMware Tools も標準でインストールされます。

vSphere Web Client から、Minimal インストールした Photon Linux の VM を見てみても

VMware Tools がインストールされていることがわかります。

photon-linux-vmtools-01.png


今回の Photon Linux のバージョンは 1.1 TP1 です。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1


VMware Tools がインストールされていることがわかります。

root [ ~ ]# vmware-toolbox-cmd -v

9.10.0.43888 (build-2476743)


この Tools は、RPM でインストールされたものだとわかります。

Photon Linux にインストールされている VMware Tools は open-vm-tools でした。

最近では、VMware としては OS ベンダの同梱する open-vm-tools の使用を推奨しているようです。


open-vm-tools に対する VMware のサポートについて

http://kb.vmware.com/kb/2074713

 

root [ ~ ]# which vmware-toolbox-cmd

/usr/bin/vmware-toolbox-cmd

root [ ~ ]# rpm -qf /usr/bin/vmware-toolbox-cmd

open-vm-tools-9.10.0-1.x86_64

root [ ~ ]# rpm -qi open-vm-tools-9.10.0-1.x86_64

Name        : open-vm-tools

Version     : 9.10.0

Release     : 1

Architecture: x86_64

Install Date: Wed Apr 22 14:46:39 2015

Group       : Applications/System

Size        : 2220330

License     : LGPLv2+

Signature   : (none)

Source RPM  : open-vm-tools-9.10.0-1.src.rpm

Build Date  : Wed Apr 15 23:06:11 2015

Build Host  : discus-test

Relocations : (not relocatable)

Vendor      : VMware, Inc.

URL         : https://github.com/vmware/open-vm-tools/archive/stable-9.10.x.zip

Summary     : Usermode tools for VmWare virts

Description :

VmWare virtualization user mode tools

 

systemctl コマンドで、Tools のサービスが起動していることも確認できます。

root [ ~ ]# systemctl status vmtoolsd.service

photon-linux-vmtools-02.png

 

こんなイメージです。

photon-linux-vmtools-03.png

 

ちなみに、VMware Tools がデフォルトでインストールされるのは、Minimal インストール以上でした。

  • Photon OS (Micro)  → デフォルトではインストールされない。
  • Photon Container OS (Minimal)  → インストールされる。
  • Photon Full OS (All) → インストールされる。

 

以上、Photon Linux と VMware Tools についてでした。

Photon Linux の RPM パッケージ管理。(yum / tdnf)

$
0
0

VMware Photon Linux では、Red Hat Linux などでおなじみの RPM でパッケージ管理されています。

yum の RPM がインストールされていれば、yum コマンドも使用できます。

 

VMware Photon

http://vmware.github.io/photon/

 

「Photon Full OS (All) 」インストールの Photon Linux 1.0 TP1 には

yum がインストールされるので、yum repolist を見てみました。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -q yum

yum-3.4.3-1.noarch

root [ ~ ]# yum repolist

repo id          repo name                                 status

photon           VMware Photon Linux 1.0(x86_64)           427

photon-iso       VMWare Photon Linux 1.0(x86_64)           427

photon-updates   VMware Photon Linux 1.0(x86_64)Updates      0

repolist: 854


リポジトリには 427 とパッケージ数が表示されていますが、

All インストールでは、260 個 の RPM がインストールされています。

※本当に ALL というわけではないようです。

root [ ~ ]# rpm -qa | wc -l

260

 

All インストールでも RPM は少ないですが、

最小限の「Photon OS (Micro) 」インストールだと更に少なく

60 個くらいしか RPM がインストールされていません。

root [ ~ ]# rpm -qa | wc -l

61

 

Micro インストールでは、Docker どころか、vi、grep などのほぼ必須のコマンドも入っていません。

そして yum コマンドも入っていません。

root [ ~ ]# vi

-su: vi: command not found

root [ ~ ]# grep

-su: grep: command not found

root [ ~ ]# yum

-su: yum: command not found

 

しかし Micro インストールでも、「tdnf」はインストールされていました。

root [ ~ ]# tdnf --version

tdnf: 1.0.0

 

tdnf とは。

tdnf は Yum と同等の RPM パッケージ管理コマンドです。

Photon と同じく、GitHub にも公開されています。

 

vmware/tdnf

https://github.com/vmware/tdnf

※「Tiny Dandified Yum」だそうです。

root [ ~ ]# rpm -qi tdnf

Name        : tdnf

Version     : 1.0

Release     : 1

Architecture: x86_64

Install Date: Tue Apr 21 16:51:07 2015

Group       : Applications/RPM

Size        : 124586

License     : VMware

Signature   : (none)

Source RPM  : tdnf-1.0-1.src.rpm

Build Date  : Wed Apr 15 23:40:09 2015

Build Host  : discus-test

Relocations : (not relocatable)

Vendor      : VMware, Inc.

URL         : http://www.vmware.com

Summary     : dnf/yum equivalent using C libs

Description :

tdnf is a yum/dnf equivalent

which uses libhawkey and librepo

 

tdnf は、yum コマンドと同じように使えるようです。

root [ ~ ]# tdnf --help

usage: tdnf [options] COMMAND

 

List of Main Commands

 

autoerase

check-local               Checks local rpm folder for problems

check-update              Check for available package upgrades

clean                     Remove cached data

distro-sync               Synchronize installed packages to the latest available versions

downgrade                 downgrade a package

erase                     Remove a package or packages from your system

group                     Display, or use, the groups information

help                      Display a helpful usage message

history                   Display, or use, the transaction history

info                      Display details about a package or group of packages

install                   Install a package or packages on your system

list                      List a package or groups of packages

makecache                 Generate the metadata cache

provides                  Find what package provides the given value

reinstall                 reinstall a package

repolist                  Display the configured software repositories

repository-packages       Run commands on top of all packages in given repository

search                    Search package details for the given string

updateinfo                Display advisories about packages

upgrade                   Upgrade a package or packages on your system

upgrade-to                Upgrade a package on your system to the specified version

 

設定ファイルを見ると、Yum と同じリポジトリを見に行っているようです。

/etc/tdnf/tdnf.conf ファイルの repodir が

Yum のリポジトリ設定ファイルの場所を指定しています。

root [ ~ ]# cat /etc/tdnf/tdnf.conf

[main]

gpgcheck=1

installonly_limit=3

clean_requirements_on_remove=true

repodir=/etc/yum.repos.d

cachedir=/var/cache/tdnf

 

Yum リポジトリの参照設定はこうなっています。

root [ ~ ]# cat /etc/yum.repos.d/photon

photon-iso.repo      photon-updates.repo  photon.repo

root [ ~ ]# cat /etc/yum.repos.d/photon.repo

[photon]

name=VMware Photon Linux 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/photon_release_1.0_TP1_x86_64

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

root [ ~ ]# cat /etc/yum.repos.d/photon-updates.repo

[photon-updates]

name=VMware Photon Linux 1.0(x86_64)Updates

baseurl=https://dl.bintray.com/vmware/photon_updates_1.0_TP1_x86_64

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

root [ ~ ]# cat /etc/yum.repos.d/photon-iso.repo

[photon-iso]

name=VMWare Photon Linux 1.0(x86_64)

baseurl=file:///media/cdrom/usr/src/photon/RPMS

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True


上記の photon~.repo ファイルに記載された URL からもわかりますが、

RPM は Bintray のサイトから個別ダウンロードすることもできます。

 

https://dl.bintray.com/vmware/photon_release_1.0_TP1_x86_64/

photon-rpm-01.png

 

tdnf での Yum リポジトリの一覧表示。

tdnf コマンドで Yum リポジトリを表示してみます。


Yum リポジトリとして ISO イメージも参照しているようなので、

あらかじめ「/media/cdrom」ディレクトリにマウントしておきます。

root [ ~ ]# mount /dev/cdrom /media/cdrom/

mount: /dev/sr0 is write-protected, mounting read-only

root [ ~ ]# ls /media/cdrom/

PHOTON_VMWARE_CD  boot  etc   home      lib    media  opt   root  sbin  sys  usr

bin               dev   fake  isolinux  lib64  mnt    proc  run   srv   tmp  var

 

ちなみに ISO の中には、このあたりに RPM ファイルがあります。

root [ ~ ]# ls /media/cdrom/usr/src/photon/RPMS/

noarch  repodata  x86_64

root [ ~ ]# ls /media/cdrom/usr/src/photon/RPMS/*/*.rpm | wc -l

427

 

tdnf コマンドで Yum リポジトリを表示してみました。

yum コマンドと同様に repolist で見ることができます。

root [ ~ ]# tdnf repolist

repo id             repo name                               status

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

photon              VMware Photon Linux 1.0(x86_64)         enabled

photon-iso          VMWare Photon Linux 1.0(x86_64)         enabled

 

tdnf での RPM インストール。

ためしに、Micro インストールの Photon Linux に vim(vi)をインストールしてみます。

root [ ~ ]# tdnf list vim

vim.x86_64                                     7.4-1                      photon

vim.x86_64                                     7.4-1                  photon-iso

root [ ~ ]# tdnf install vim

Installing:

perl-DBI       x86_64  1.633-1

perl-DBIx-Simple       noarch  1.35-1

gdbm   x86_64  1.11-1

perl-DBD-SQLite        x86_64  1.46-1

grep   x86_64  2.21-1

tcsh   x86_64  6.18.01-1

perl   x86_64  5.18.2-1

gawk   x86_64  4.1.0-1

vim    x86_64  7.4-1

Is this ok [y/N]:y

Downloading 9662601.00 of 9662601.00

Downloading 688103.00 of 688103.00

Downloading 17945701.00 of 17945701.00

Downloading 262177.00 of 262177.00

Downloading 219679.00 of 219679.00

Downloading 2080877.00 of 2080877.00

Downloading 155696.00 of 155696.00

Downloading 37693.00 of 37693.00

Downloading 800209.00 of 800209.00

Testing transaction

Running transaction

root [ ~ ]#


これで vim がインストールされました。

root [ ~ ]# tdnf list vim

vim.x86_64                                     7.4-1                     @System

vim.x86_64                                     7.4-1                      photon

vim.x86_64                                     7.4-1                  photon-iso

root [ ~ ]# rpm -q vim

vim-7.4-1.x86_64

root [ ~ ]# vi --version | head -1

VIM - Vi IMproved 7.4 (2013 Aug 10, compiled Apr 15 2015 20:19:49)

 

以上、Photon Linux の RPM パッケージ管理についてでした。

Photon Linux の Network 設定変更について。(IP / DNS / Hostname...)

$
0
0

Photon Linux のネットワーク設定は、

デフォルトだと DHCP による自動設定です。

いろいろと検証するうえで、ネットワーク設定を変更したいことがあるはずなので

実機確認してみた方法を紹介しておこうと思います。

 

IP アドレスや参照先 DNS サーバのアドレスなどを

静的なものに変更したい場合は、最近の Linux っぽい感じで

Systemd による設定変更ができます。

 

eth0 のネットワーク設定変更。

 

たとえば、デフォルトの設定ファイルは下記のようになっています。

NIC の名前は、eth0 になります。(そして 2つ目は eth1)

root [ ~ ]# cat /etc/systemd/network/10-dhcp-eth0.network

[Match]

Name=eth0

 

[Network]

DHCP=yes

 

上記のファイルのかわりに、設定ファイルを用意します。

今回は、IP アドレス、デフォルトゲートウェイ、参照 DNS サーバ(8.8.8.8) を指定しています。

root [ ~ ]# vi /etc/systemd/network/10-static-eth0.network

root [ ~ ]# cat /etc/systemd/network/10-static-eth0.network

[Match]

Name=eth0

 

[Network]

DHCP=no

Address=192.168.1.11/24

Geteway=192.168.1.1

DNS=8.8.8.8

 

元のファイルは、別のディレクトリに退避しておきます。

root [ ~ ]# mv /etc/systemd/network/10-dhcp-eth0.network ./10-dhcp-eth0.network_bk

 

systemctl restart systemd-networkd.service

で設定変更してみます。

root [ ~ ]# systemctl restart systemd-networkd.service

root [ ~ ]# systemctl status systemd-networkd.service

● systemd-networkd.service - Network Service

   Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled)

   Active: active (running) since Sun 2015-04-26 13:35:59 UTC; 11s ago

     Docs: man:systemd-networkd.service(8)

Main PID: 322 (systemd-network)

   Status: "Processing requests..."

   CGroup: /system.slice/systemd-networkd.service

           mq322 /lib/systemd/systemd-networkd

 

Apr 26 13:35:59 photon01 systemd-networkd[322]: [/etc/systemd/network/10-static-eth0.n...k'

Apr 26 13:35:59 photon01 systemd-networkd[322]: eth0            : gained carrier

Apr 26 13:35:59 photon01 systemd-networkd[322]: lo              : gained carrier

Apr 26 13:35:59 photon01 systemd[1]: Started Network Service.

Apr 26 13:35:59 photon01 systemd-networkd[322]: eth0            : link configured

Hint: Some lines were ellipsized, use -l to show in full.

 

これで、eth0 には 設定ファイルに記載した新しい IP アドレスが付与されます。

 

ただし、変更前の IP と、変更後の IP が両方残った状態になります。

ifconfig だと eth0 に変更前の IP アドレスが表示されていますが、

ip コマンドだと、変更前 / 変更後 両方の IP アドレスが付与されていることがわかります。

root [ ~ ]# ip address show eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:50:56:a0:86:93 brd ff:ff:ff:ff:ff:ff

    inet 192.168.1.10/24 brd 192.168.1.255 scope global eth0★古いIP

       valid_lft forever preferred_lft forever

    inet 192.168.1.11/24 brd 192.168.1.255 scope global secondary eth0 ★新しい IP

       valid_lft forever preferred_lft forever

    inet6 2408:210:a3c8:7000:250:56ff:fea0:8693/64 scope global dynamic

       valid_lft 13642sec preferred_lft 11842sec

    inet6 fe80::250:56ff:fea0:8693/64 scope link

       valid_lft forever preferred_lft forever

root [ ~ ]# ifconfig eth0

eth0      Link encap:Ethernet  HWaddr 00:50:56:A0:86:93

          inet addr:192.168.1.10  Bcast:192.168.1.255  Mask:255.255.255.0★古い IP

          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

          RX packets:1807 errors:0 dropped:0 overruns:0 frame:0

          TX packets:449 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:1000

          RX bytes:136788  TX bytes:77519

 

たとえば、 ip address del 192.168.1.10/24 dev eth0

(192.168.1.10/24 は変更前の IP アドレス)といったコマンドで修正できますが、

いったん OS を再起動してしまった方がよいかもしれません。

 

最終的に、変更後の IP アドレスだけになります。

root [ ~ ]# ip address show eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:50:56:a0:86:93 brd ff:ff:ff:ff:ff:ff

    inet 192.168.1.11/24 brd 192.168.1.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet6 2408:210:a3c8:7000:250:56ff:fea0:8693/64 scope global dynamic

       valid_lft 14126sec preferred_lft 12326sec

    inet6 fe80::250:56ff:fea0:8693/64 scope link

       valid_lft forever preferred_lft forever

 

参照先 DNS サーバのアドレスは、

/etc/resolv.conf のリンク先になっている

/run/systemd/resolve/resolv.conf ファイルに反映されます。

root [ ~ ]# ls -l /etc/resolv.conf

lrwxrwxrwx 1 root root 34 Apr 22 14:51 /etc/resolv.conf -> ../run/systemd/resolve/resolv.conf

root [ ~ ]# cat /run/systemd/resolve/resolv.conf

# This file is managed by systemd-resolved(8). Do not edit.

#

# Third party programs must not access this file directly, but

# only through the symlink at /etc/resolv.conf. To manage

# resolv.conf(5) in a different way, replace the symlink by a

# static file or a different symlink.

 

nameserver 8.8.8.8

 

ホスト名の変更について。


ホスト名の変更には、hostnamectl コマンドが使用できます。

この Photon Linux では、インストール時に

「photon01」というホストを指定していました。

root [ ~ ]# uname -n

photon01

root [ ~ ]# hostname

photon01

root [ ~ ]# cat /etc/hostname

photon01

root [ ~ ]# hostnamectl

   Static hostname: photon01

         Icon name: computer-vm

           Chassis: vm

        Machine ID: d0e8e46689324de7b3940494d62ec61d

           Boot ID: 4ce68ca573eb4f669d82606bf193cb14

    Virtualization: vmware

            Kernel: Linux 3.19.2

      Architecture: x86-64

 

それでは、hostnamectl コマンドで「ph01」というホスト名に変更してみます。

ホスト名を変更すると、すぐに反映されます。

root [ ~ ]# hostnamectl set-hostname ph01

root [ ~ ]# uname -n

ph01

root [ ~ ]# hostname

ph01

root [ ~ ]# cat /etc/hostname

ph01

root [ ~ ]# hostnamectl

   Static hostname: ph01

         Icon name: computer-vm

           Chassis: vm

        Machine ID: d0e8e46689324de7b3940494d62ec61d

           Boot ID: 4ce68ca573eb4f669d82606bf193cb14

    Virtualization: vmware

            Kernel: Linux 3.19.2

      Architecture: x86-64

 

まだ、Photon Linux の技術情報ほとんど公開されてないようなので、

もう少ししたらもっとよい設定方法が紹介されるのかもしれません。

 

以上、Photon Linux のネットワーク設定変更でした。


Congratulations to DELL Winner Marc Crawford

$
0
0

Congratulations to CloudCredibility.com player and task writer Marc Crawford (@uber_tech_geek). Marc recently won this DELL Inspiron 15 laptop for his contributions to the DCV-EXAM Review Task Series currently available at CloudCred. Marc, along with three other vExperts and community members, wrote over 180 tasks covering the 7 sections of the VCP5-DCV Exam Blueprint version 3.5.

 

DELL Inspiron.jpg Find the DCV-EXAM Task Series

 

Join CloudCred to access +2500 Tasks, 4 Worlds, 4 Leaderboards, +20 badges, +10 Prestige levels, hundreds of teams, prizes, and contests. Plus, make new professional connections and learn from hundreds of active players.

 

CloudCred also congratulates and thanks task writers Nigel Hickey (@vCenterNerd), Andrea Mauro (@Andrea_Mauro), and Mike Medrano (@GeekieMike) who generously contributed their time & expertise to the series. Find out more about the authors.

 



If you would like to contribute as a task writer, we are currently gearing up for the next VCP Exam Review Series: NV. Please contact the CloudCred Admin: CloudCredAdmin@vmware.com, or Community Manager Noell Grier: NGrier1@vmware.com.

CloudCred & vForum Online Task Series and Contest

$
0
0

vForum May 2015 Header.jpg

The VMware vForum Online Spring 2015 is quickly approaching. This half-day virtual conference offers the opportunity to gain the knowledge, insight and tools to fulfill your 2015 IT goals and inspire IT innovation within your organization. Plus, the vForum Online is at no cost to you and you can attend from the convenience of your desk!

 

Once again, the vForum Online is partnering with CloudCredibility.com to offer even more incentive to attend, and more incentive to engage at CloudCred.

 

Beginning Monday, May 11, you’ll find Pre-Event tasks, and on May 21, the day of the forum, there will be many, many more.

 

For every vForum Online task a player completes at CloudCred, he or she will be entered to win a pair of Beats Studio Wired Headphones.

The more tasks you play, the more chances you have to win!

 

Engage, Learn, & Win with CloudCredibility.com and this year's spring vForumOnline.

vSphere 6.0 what's New Highlight

$
0
0

Scalability in vSphere 6.0:

  1. vSphere ESXi 6.0 can support 64 host in cluster instead 32 in vSphere 5.5
  2. 8000 VM in Cluster
  3. vSphere Hypervisor 6.0 instance  can support 12TB RAM,480 logical CPU and 1024 VM.

Security Enhancement:

  1. Account Management: Local account of ESXi can also be managed by esxcli as well by vCenter. In previous version it is only possible with DCUI.
  2. 2.      Password Complexity Rules: previouslyit was maintain by  /etc/pam.d/ passwd now in Host Advanced System Settings.
  3. 3.      Flexible Lockdown Modes: two lockdown mode
    • i.     normal lockdown mode : The DCUI access is not stopped, and users on the “DCUI.Access” list can access DCUI
    • ii.     Strict Lockdown Mode: In this mode, DCUI is stopped
  4. 4.      Smart Card Authentication to DCUI: It enables DCUI login access using a Common Access Card (CAC) and Personal Identity Verification (PIV).

NVIDIA GRID Support:  NVIDIA GRID delivers a graphics experience that is equivalent to dedicated hardware when using VMware Horizon. Horizon with NVIDIA GRID vGPU enables geographically dispersed organizations to run graphics-intensive applications with 3D at scale.

VM Enhancements:

VM of 128 vCPUs and 4TB of RAM, hot-add RAM enhancements to vNUMA, WDDM 1.1 GDI acceleration, a USB 3.0 xHCI controller, and several serial and parallel port enhancements.

Guest OS support:

http://www.vmware.com/resources/compatibility/search.php?deviceCategory=guestos

Windows Server Failover Clustering Enhancements:

vSphere 6.0 introduces support for the PVSCSI adapter with virtual machines running WSFC. This provides performance superior to that with the standard SCSI adapter.

VMware vSphere vMotion® is now fully supported with Windows Server 2008 and later when using WSFC virtual machines that are clustered across physical hosts using physical-mode RDMs.

vCenter Server Enhancements:

vCenter Server 6.0 two deploy model

  1. embedded, deploys the new Platform Services Controller (PSC) and the vCenter Server system on the same machine
  2. The second, external, deploys the PSC and the vCenter Server instance on separate machines.

Now comes what is Platform Services Controller. So PSC includes the common services SSO, licensing and certificate mgmt..

PSCs replicate information such as licenses, roles and permissions, and tags with other PSCs.

Certificate Management: The PSC contains the VMware Certificate Authority (VMCA). The VMCA is a root certificate authority (CA) that issues signed certificates to all vSphere 6.0 components via the solution users.

 

vCenter Server Appliance: vCenter Server Appliance now has the same scalability numbers as the Windows installable vCenter Server

vSphere Feature highlight:

  1. 1.      vSphere vMotion: enabling users to perform live migration of virtual machines across virtual Switch, across vcenter and long distance  150ms RTT.
  2. 2.      VMware vSphere Fault Tolerance Enhancements: vSphere FT now supports protection of virtual machines with up to 4 vCPUs and 64GB of memory. vSphere FT now supports all virtual disk formats: eager-zeroed thick, thick, and thin
  3. 3.      vSphere High Availability Enhancements: vSphere HA now includes Virtual Machine Component Protection (VMCP), which provides enhanced protection from All Paths Down (APD) and Permanent Device Loss (PDL) conditions for block (FC, iSCSI, FCoE) and file storage (NFS). vSphere HA can now protect as many as 64 ESXi hosts and 8,000 virtual machines. It also is fully compatible with VMware Virtual Volumes, VMware vSphere Network I/O Control, IPv6, VMware NSX™, and cross vCenter Server vSphere vMotion.
  4. 4.      Multisite Content Library: The Content Library simplifies virtual machine template management and distribution for organizations that have several vCenter Server systems across geographic locations.It centrally manages virtual machine templates, ISO images, and scripts. This “store once, share many” architecture reduces the time associated with distributing templates manually, enabling more time to be spent performing more-important administrative tasks.
  5. 5.      Virtual Volumes: Virtual Volumes is a new virtual machine disk management and integration framework that enables array-based operations at the virtual disk level. Virtual Volumes makes SAN and NAS storage systems capable of being managed at a virtual machine level and enables the leveraging of array based data services and storage array capabilities with a virtual machine–centric approach at the granularity of a single virtual disk.
  6. 6.      vSphere Data Protection Enhancements: All functionality previously available with VMware vSphere Data Protection Advanced™ has been consolidated into vSphere Data Protection 6.0.

vSphere Data Protection now includes agents that enable application-consistent backup and reliable recovery of Microsoft SQL Server, Microsoft Exchange Server, and Microsoft SharePoint Server, including SQL Server clusters and Exchange Server database availability groups. Individual databases can be selected for backup and restore, and it is possible to restore individual Exchange Server mailboxes.

 

  1. 7.      vSphere Networking Enhancements: vSphere Network I/O Control Enhancements vSphere Network I/O Control Version 3 enables administrators or service providers to reserve—that is, guarantee—bandwidth to a vNIC in a virtual machine or an entire distributed port group.

VROPS 6.x の UI タイムアウト時間を変更する。

$
0
0

vRealize Operations Manager(VROPS)6.x の Web UI は、

デフォルトだと 30 分でセッション タイムアウトしてしまい、再ログインが必要です。

※vCenter Operations Manager は製品名が変更されて、vRealize Operations Manager になっています。


監視卓みたいに、1日中ただ眺めていたいときには、

このタイムアウト期間を調整することができます。


以前の VCOPS 5.x だと、UI のタイムアウト期間は

VCOSP の OS にログインして設定ファイルを変更する必要がありましたが、

VROPS 6.x からは、Web UI から設定変更ができるようになりました。

 

以前のポスト。(VCOPS5.x)

VCOPS の UI タイムアウト時間を変更する。


マニュアルでは、下記のあたりです。

vRealize Operations Manager カスタマイズおよび管理ガイド

vRealize Operations Manager 6.0.1

http://pubs.vmware.com/vrealizeoperationsmanager-6/topic/com.vmware.ICbase/PDF/vrealize-operations-manager-601-cust-admin-guide.pdf

※P.171 あたり。

 

セッション タイムアウト期間の設定変更方法

 

VROPS の Web UI にアクセスして、管理ユーザ「admin」などでログインします。

https://<VROPS のアドレス> /vcops-web-ent/

 

今回の VROPS のバージョンは、6.0.1です。

VROPS のバージョンは、UI 上部の「バージョン情報」で確認できます。

vrops60-timeout-00.png

 

「ホーム」→「管理」を開きます。

vrops60-timeout-01.png

 

「グローバル設定」を開くと、

「セッション タイムアウト」がデフォルトでは 30分になっています。

vrops60-timeout-02.png

 

「グローバル設定」の編集ボタンをクリックすると、設定変更できます。

セッション タイムアウトを、最大値の 34560 分にしてみます。

vrops60-timeout-03.png

 

設定は、即座に反映されます。

VCOPS 5.x の時とは異なり、VROPS のサービス再起動は不要なようです。

※30分間以上放置してもタイムアウトしませんでした。

vrops60-timeout-04.png

 

おまけ

セッション タイムアウトは、無期限にはできないようです。

ためしに「0 分」を入力してみると、

「このフィールドの最小値は 1 です」と表示されてしまいます。

vrops60-timeout-05.png

 

逆に、「34561 分」以上を入力してみると、

「このフィールドの最小値は 34560 です」と表示されてしまいます。

vrops60-timeout-06.png

 

ただ、34560 分もセッションが持続するのであれば充分と思われます・・・

 

以上、VROPS 6.x のセッション タイムアウト期間の変更でした。

Re-register VMs from vCenter using PowerCLI

$
0
0

Sometimes protection of VMs in Site Recovery Manager (SRM) might fail with error 'VmAlreadyProtected'. A quick workaround would be to remove the vm from vCenter's inventory and add it back.

Below is a PowerCLI sample to remove all VMs and add them back.

 

# connect to VIServer

$vi = Connect-VIServer <VIServer_IP> -user <Username> -password <password>

 

# get vm list

$vm_list = Get-VM

 

# save working dir

$old_pwd = Get-Location

 

# loop over all vms

$skipped = 0;

$processed = 0;

$errorText = ''

 

$ErrorActionPreference = "Stop"; # Make all errors terminating

 

foreach ($vm in $vm_list) {

 

    # Shutdown VM

    try {

        if( $vm.powerstate -ne 'PoweredOff') {

            Write-Output "Shutting down vm '$vm'"

            Shutdown-VMGuest -VM $vm -Confirm:$false

         

            # Wait for Shutdown to complete

            # max wait time-out

            $timeout = 120  # unit: seconds

            do {

                #Wait 5 seconds

                Write-Output 'wait 5 seconds to check the power status...'

                Start-Sleep -s 5

                $timeout -= 5

                #Check the power status

                $status = (Get-VM -id $vm.id).PowerState

                $status

            }until(($status -eq "PoweredOff") -Or ($timeout -le 0))

         

            if( $timeout -le 0) {

                $t = "Error: Timed-out while shuting down vm '$vm', will ignore this one and continue."

                Write-Output $t

                $errorText += $t + "`n"

                $skipped++;

                continue

            }

        }

    }

    catch {

        $t = "Error: Caught exception while shuting down vm '$vm', will ignore this one and continue."

        $skipped++;

        Write-Output $t

        $errorText += $t + "`n"

        continue

    }

 

    $ds_path = ($vm | Get-Datastore).DatastoreBrowserPath        # sample: vmstores:\10.161.19.51@443\dc_pri\datastore1

    $vmHost  = $vm | get-vmhost

 

    # get vm folder name on datastore

    $vm.extensionData.config.files.VmPathName -match "\[.+\] (\S+)/"    # sample: [datastore1] test1_1/test1.vmx

    $folder = $matches[1]

    $vm_folderpath = $ds_path + "\" + $folder

 

    cd $vm_folderpath

 

    $vmxFile = Get-Item ($vm.name + ".vmx")

 

    try {

        Write-Output "Removing vm '$vm' with path '$vm_folderpath'"

        Remove-VM -VM $vm -Confirm:$false -DeletePermanently:$false

    }

    catch {

        $t = "Error: Caught exception while removing vm '$vm', will ignore this one and continue."

        Write-Output $t

        $errorText += $t + "`n"

        $skipped++;

        continue

    }

 

    try {

        Write-Output "Registering vm $vm..."

        New-VM -VMHost $vmhost -VMFilePath $vmxFile.DatastoreFullPath

    }

    catch {

        $t = "Caught exception while adding vm '$vm', will ignore this one and continue."

        $skipped++;

        Write-Output $t

        $errorText += $t + "`n"

        continue

    }

    $processed++

}

 

cd $old_pwd

 

Write-Output "Job finished. Processed: $processed, skipped: $skipped"

if( $errorText -ne '') {

    Write-Output "Errors: `n$errorText"

}

Viewing all 3135 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>