投げ銭

★当サイトへの投げ銭(PayPal)★

LINK


(無償)
logo
世界中で使われるISO標準オフィスソフト(MSオフィス互換)
The Document Foundation Wiki

人気の投稿(1ヶ月間)

Ad

Ad

投げ銭

★当サイトへの投げ銭(PayPal)★

2012年3月27日火曜日

《LSI MegaRAID SAS 9260-8i》VIRTUAL DRIVEの設定情報メモ

LSI MegaRAID SAS 9260-8iのVIRTUAL DRIVEの設定情報メモ
(firmware version 2.120.243-1482)

更新
2012/04/18
2012/04/23

私が構成しているVIRTUAL DRIVEの設定値(赤字で示した)のメモ
以下、MSMツールを用いて表示させた設定値とその意味について
(色々参照したので間違っているかもしれない。あくまでも私のメモ。)


▽General 項目
・RAID Level 6
・Size 3.637 TB
・Parity Size 1.818TB
・Strip Size 64KB
・VIRTUAL DISK STATE Optimal

▼IO and Cache Policies 項目
・Disk Cache Policy  ⇒Disable
Disable:
HDD上に積んであるキャッシュメモリを利用しない。
これによって、不意に電源が落ちた際にこのキャッシュメモリに保留されるデータが消失する問題を回避できるはず。ただ、動作は遅くなるんだろう。(利用する設定にすると、書き込み時に高速になる。)

・Read Policy  ⇒No Read Ahead
Read Ahead:
virtual driveにおいてデータ読み出し時に、連続したセクタも読み込まれ予めキャッシュされる。
データが連続したセクタに存在している場合には高速化が期待できる。
連続したセクタにない場合には無駄なディスクアクセスなどの処理をしてしまうのだろう。

・IO Policy  ⇒Direct IO
Direct I/O:
推奨設定らしい。読み出されたデータはホストに直接転送される。
その後の読み出しで同じデータブロックが要求された場合には、キャッシュを自前で持っているホストのファイルシステムなどがそれに応じることになる。

Cache I/O:
読み出されたデータはコントローラーのキャッシュメモリにバッファされる。
その後の読み出しで同じデータブロックが要求された場合には、このコントローラーキャッシュ内容が用いられる。(ホストのファイルシステムがキャッシュ機能を持っていない場合)


▼Write Policy 項目
・Current Write Policy  ⇒Write Through
・Default Write Policy  ⇒Write Through

Write Through:
ホスト⇔RAIDカード⇔ディスクドライブ において、
ホストがRAIDカードにデータの書き込み要求をした場合、
RAIDカードはただちにディスクドライブにこのデータの書き込み要求をかける。
ディスクドライブから処理完了を告げられてから、ホストに書き込み完了を告げる。電源が意図せずに断たれた場合に備えて安全であるが、アクセスが非常に遅くなった。

Write Back:
ホストがRAIDカードにデータの書き込み要求をした場合、
RAIDカードはキャッシュメモリにデータを受けて、ホストに書き込み完了を告げる。アクセスが雲泥の差で早くなった。
<注意>バックアップユニット(BBU)がない場合でこのモードを使えば、不意な電源断でキャッシュメモリ内容が消失し、データ書き込み要求元と、ディスクとの間に矛盾が生じることになる。

▽Access Policy 項目
・Current Access Policy  ⇒Read Write
・Default Acess Policy  ⇒Read Write


(参照)
・Configuring RAID for Optimal Performance
< http://download.intel.com/support/motherboards/server/sb/configuring_raid_for_optimal_perfromance_11.pdf > 2012/04/18

・LSI MegaRAID SAS
 < http://hwraid.le-vert.net/wiki/LSIMegaRAIDSAS > 2012/03/09

・LSI RAID Contoller IO Policy
 < http://www.5laida.com/archives/102 > 2012/03/09

・Caching RAID Controller Performance Tuning Secrets (cough-giggle)
 < http://sqlblog.com/blogs/joe_chang/archive/2010/10/11/caching-raid-controller-performance-tuning-secrets-cough-giggle.aspx > 2012/03/09

2012年3月25日日曜日

【VMware vSphere Hypervisor 5.0.0】ホストにディスクを追加し新しいデータとストアを作成する【ESXi 5】

ESXi 5ホストに、新しいデータストア用のディスクを後付し、データストアを作成したときのメモ


新しくディスク接続したESXiホストに対して、vSphere Clientを用いて、データストアを作成できる。
ただし、追加したディスクに既にパーティションが存在して、新規にパーティションが作成できない場合、エラーが発生した。

そのため、先にパーティション削除の操作が必要になった。



<作業手順>
(注意)以下の手順で今回追加したディスクのパーティションはすべて消去している。


1、ESXi5ホストをシャットダウンし電源を切り、ディスクをSATAポートに接続し再度ホストを起動した

2、追加したディスクにすでにパーティションが存在している場合、次の手順で全て削除した

○新しく接続したディスクのデバイス名を確認した
~ # cd /dev/disks/
/dev/disks # ls
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:1
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:2
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:3
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:5
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:6
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:7
t10.ATA_____C3002DCTFDDAC064MAG______________________00000000104302FE1AB1:8
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF  ←対象のディスクを型番から確認した
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF:1
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF:2
vml.01000000002020202020202020202020205a31443038474b46535431303030
vml.01000000002020202020202020202020205a31443038474b46535431303030:1
vml.01000000002020202020202020202020205a31443038474b46535431303030:2
vml.01000000003030303030303030313034333032464531414231433330302d43
vml.01000000003030303030303030313034333032464531414231433330302d43:1
vml.01000000003030303030303030313034333032464531414231433330302d43:2
vml.01000000003030303030303030313034333032464531414231433330302d43:3
vml.01000000003030303030303030313034333032464531414231433330302d43:5
vml.01000000003030303030303030313034333032464531414231433330302d43:6
vml.01000000003030303030303030313034333032464531414231433330302d43:7
vml.01000000003030303030303030313034333032464531414231433330302d43:8

○新しいディスクに対してfdiskコマンドを起動する
/dev/disks # fdisk t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF

○既存のパーティションテーブルの確認
Command (m for help): p
Disk t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

                                                                     Device Boot      Start         End      Blocks  Id System
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKFp1   *         1        64    512000   83  Linux
Partition 1 does not end on cylinder boundary
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKFp2            64    267350 2146970624   8e  Linux LVM
パーティションが2つ存在することが分かった。


○一つ目のパーティションを削除した (dコマンドを用いた)
Command (m for help): d
Partition number (1-4): 1

○削除の確認を行った
Command (m for help): p

Disk t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

                                                                     Device Boot      Start         End      Blocks  Id System
t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKFp2            64    267350 2146970624   8e  Linux LVM


○残り(2つ目)のパーティションの削除を行った
Command (m for help): d
Selected partition 2


○確認を行った
Command (m for help): p

Disk t10.ATA_____ST1000DM0032D9YN162__________________________________Z1D08GKF: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

                                                                     Device Boot      Start         End      Blocks  Id System


○今回の変更をこのディスクに書き込んだ
Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table
/dev/disks #



3、vSphere Clientを用いて、新しいディスクにデータストアを作成した

「構成」 →「ストレージの追加」 →「ディスク/LUN」 →「次へ」 と進み、
表示される使用可能なディスク一覧から、対象のディスクを選択する。

つづいて質問に答えていき、フォーマットの方法などを選択すれば、自動的にデータストアが作成された。


2012年3月12日月曜日

【Linux CentOS6.2 64bit版 インストーラー】大容量物理ディスクでパーティション作成時に発生するエラーを回避する方法

CentOS6.2 64bit版のインストーラーを使って、
大容量ディスク(3.8Tバイト)パーティションを作成しシステムをインストールしたときのメモ


CentOS 6.2 64bit版のインストーラーを使って、RAIDで構築した大容量ディスク(3.8Tバイト)にパーティションを作成している途中に、次のエラーが発生した。
要求されたパーティションは設定できません
requested size exceeds maximum allowed 

これはディスクでMBRに代わるGPTを許可していなかったためのようだ。
対策は、ディスクで、GPTを使うように設定することである。

ただし、マザーボードはEFIに対応しているものを使用した。
(EFIを無効にして旧来のBIOS利用で今回の方法が通用するかどうかは不明)



<手順>
1、パーティションを区切る操作の前に、ディスクをGPTに対応させる設定を行う

インストーラーにおいて「パーティションをマニュアル操作で区切る段階」で、
Ctrl+Alt+F2 を押すことでコンソールに移動し、次のコマンドを実行した。
# parted /dev/sda   ←対象のディスクを指定する
(parted) mklabel gpt  ←gptを使用するように設定している(gptという名前のラベルを作成)
(parted) quit

すると、fstabを読み込む必要があるとのメッセージが出たので、システムを再起動した。



2、GPTに対応させたディスクにパーティションを作成する

インストーラーを再起動し、再びマニュアルでパーティションを作成した。
今度はディスクのパーティション管理方法がGPTになっているので、エラーが発生しなかった。

無事、CentoOS6.2 64bit版もインストールすることができたし、システムを起動することもできた。



◎思ったこと・・・誤解があるかもしれない。

・GPTでは、パーティションには基本パーティション、論理パーティションの区別がないようだ。

・gptというラベルを貼っただけでディスクがGPTに対応しそのパーティションを作成できたことから、
パーティション作成ツールはgptラベルの存在を確認できたディスクに対して、
パーティション作成時にこのディスクにGPTを作成し、そして対応パーティションを作成するのだろう。



(参考)
・[Solved]Could not allocate requested partitions: requested size exceeds maximum allowed
< http://kezhong.wordpress.com/2012/01/31/solvedcould-not-allocate-requested-partitions-requested-size-exceeds-maximum-allowed/ > 2012/03/12

・GUIDパーティションテーブル
< http://ja.wikipedia.org/wiki/GUID%E3%83%91%E3%83%BC%E3%83%86%E3%82%A3%E3%82%B7%E3%83%A7%E3%83%B3%E3%83%86%E3%83%BC%E3%83%96%E3%83%AB > 2012/03/12

2012年3月8日木曜日

【Linux CentOS6.2 64bit版】SELINUXを無効化する

CentOS6.2のSELINUXを無効化する設定


■configファイルを開き、SELINUX項目の値を disable にして再起動する

(注意)設定を誤ると、カーネルパニック?で起動しなくなったので、慎重に編集すること。

# vi /etc/selinux/config

<略>
SELINUX=disabled
<略>

# reboot



□再起動後、SELINUXの状態を確認する

# getenforce

Disabled

2012年3月1日木曜日

【VMware vSphere Hypervisor 5.0.0】パッチをあてるための手順【ESXi 5】

ESXi5(無償ライセンス)に対してパッチを行う手順



■VMwareのサイトから対応するパッチをダウンロードする

http://www.vmware.com/patchmgr/download.portal で条件(ESXi 5.0.0)を入力し検索した。
結果ページから最新のパッチ(2012年3月1日現在ではESXi500-201112001が最新だった )を選択してダウンロードを行った。


■ダウンロードしたパッチ(ZIPファイル)をデータストアにアップロードする

vSphere Clientのデータストアブラウザから行った。
以下、更新用ファイルは、/vmfs/volumes/datastore1/ESXi500-201112001.zip に存在しているものとする。



■SSHでESXi5ホストに入って、次の手順でアップデート作業を行う

仮想マシンは全て終了させた

1、メンテナンスモードに切り替える
# vim-cmd hostsvc/maintenance_mode_enter
'vim.Task:haTask-ha-host-vim.HostSystem.enterMaintenanceMode-240760841'


2、アップデートを行う
# esxcli software vib install --maintenance-mode --depot /vmfs/volumes/datastore1/ESXi500-201112001.zip

Installation Result
   Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
   Reboot Required: true
   VIBs Installed: VMware_bootbank_esx-base_5.0.0-0.7.515841, VMware_bootbank_misc-drivers_5.0.0-0.7.515841, VMware_bootbank_net-be2net_4.0.88.0-1vmw.500.0.7.515841, VMware_bootbank_net-e1000_8.0.3.1-2vmw.500.0.7.515841, VMware_bootbank_net-e1000e_1.1.2-3vmw.500.0.7.515841, VMware_locker_tools-light_5.0.0-0.7.515841
   VIBs Removed: VMware_bootbank_esx-base_5.0.0-0.0.469512, VMware_bootbank_misc-drivers_5.0.0-0.0.469512, VMware_bootbank_net-be2net_4.0.88.0-1vmw.500.0.0.469512, VMware_bootbank_net-e1000_8.0.3.1-2vmw.500.0.0.469512, VMware_bootbank_net-e1000e_1.1.2-3vmw.500.0.0.469512, VMware_locker_tools-light_5.0.0-0.0.469512
   VIBs Skipped: VMware_bootbank_ata-pata-amd_0.3.10-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-atiixp_0.4.6-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-cmd64x_0.2.5-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-hpt3x2n_0.3.4-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-pdc2027x_1.0-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-serverworks_0.4.3-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-sil680_0.4.8-3vmw.500.0.0.469512, VMware_bootbank_ata-pata-via_0.3.3-2vmw.500.0.0.469512, VMware_bootbank_block-cciss_3.6.14-10vmw.500.0.0.469512, VMware_bootbank_ehci-ehci-hcd_1.0-3vmw.500.0.0.469512, VMware_bootbank_esx-tboot_5.0.0-0.0.469512, VMware_bootbank_ima-qla4xxx_2.01.07-1vmw.500.0.0.469512, VMware_bootbank_ipmi-ipmi-devintf_39.1-4vmw.500.0.0.469512, VMware_bootbank_ipmi-ipmi-msghandler_39.1-4vmw.500.0.0.469512, VMware_bootbank_ipmi-ipmi-si-drv_39.1-4vmw.500.0.0.469512, VMware_bootbank_misc-cnic-register_1.1-1vmw.500.0.0.469512, VMware_bootbank_net-bnx2_2.0.15g.v50.11-5vmw.500.0.0.469512, VMware_bootbank_net-bnx2x_1.61.15.v50.1-1vmw.500.0.0.469512, VMware_bootbank_net-cnic_1.10.2j.v50.7-2vmw.500.0.0.469512, VMware_bootbank_net-enic_1.4.2.15a-1vmw.500.0.0.469512, VMware_bootbank_net-forcedeth_0.61-2vmw.500.0.0.469512, VMware_bootbank_net-igb_2.1.11.1-3vmw.500.0.0.469512, VMware_bootbank_net-ixgbe_2.0.84.8.2-10vmw.500.0.0.469512, VMware_bootbank_net-nx-nic_4.0.557-3vmw.500.0.0.469512, VMware_bootbank_net-r8168_8.013.00-3vmw.500.0.0.469512, VMware_bootbank_net-r8169_6.011.00-2vmw.500.0.0.469512, VMware_bootbank_net-s2io_2.1.4.13427-3vmw.500.0.0.469512, VMware_bootbank_net-sky2_1.20-2vmw.500.0.0.469512, VMware_bootbank_net-tg3_3.110h.v50.4-4vmw.500.0.0.469512, VMware_bootbank_ohci-usb-ohci_1.0-3vmw.500.0.0.469512, VMware_bootbank_sata-ahci_3.0-6vmw.500.0.0.469512, VMware_bootbank_sata-ata-piix_2.12-4vmw.500.0.0.469512, VMware_bootbank_sata-sata-nv_3.5-3vmw.500.0.0.469512, VMware_bootbank_sata-sata-promise_2.12-3vmw.500.0.0.469512, VMware_bootbank_sata-sata-sil_2.3-3vmw.500.0.0.469512, VMware_bootbank_sata-sata-svw_2.3-3vmw.500.0.0.469512, VMware_bootbank_scsi-aacraid_1.1.5.1-9vmw.500.0.0.469512, VMware_bootbank_scsi-adp94xx_1.0.8.12-6vmw.500.0.0.469512, VMware_bootbank_scsi-aic79xx_3.1-5vmw.500.0.0.469512, VMware_bootbank_scsi-bnx2i_1.9.1d.v50.1-3vmw.500.0.0.469512, VMware_bootbank_scsi-fnic_1.5.0.3-1vmw.500.0.0.469512, VMware_bootbank_scsi-hpsa_5.0.0-17vmw.500.0.0.469512, VMware_bootbank_scsi-ips_7.12.05-4vmw.500.0.0.469512, VMware_bootbank_scsi-lpfc820_8.2.2.1-18vmw.500.0.0.469512, VMware_bootbank_scsi-megaraid-mbox_2.20.5.1-6vmw.500.0.0.469512, VMware_bootbank_scsi-megaraid-sas_4.32-1vmw.500.0.0.469512, VMware_bootbank_scsi-megaraid2_2.00.4-9vmw.500.0.0.469512, VMware_bootbank_scsi-mpt2sas_06.00.00.00-5vmw.500.0.0.469512, VMware_bootbank_scsi-mptsas_4.23.01.00-5vmw.500.0.0.469512, VMware_bootbank_scsi-mptspi_4.23.01.00-5vmw.500.0.0.469512, VMware_bootbank_scsi-qla2xxx_901.k1.1-14vmw.500.0.0.469512, VMware_bootbank_scsi-qla4xxx_5.01.03.2-3vmw.500.0.0.469512, VMware_bootbank_uhci-usb-uhci_1.0-3vmw.500.0.0.469512

3、再起動を行う
# reboot

4、再起動後、再度ログインして、メンテナンスモードから出る
# vim-cmd hostsvc/maintenance_mode_exit

'vim.Task:haTask-ha-host-vim.HostSystem.exitMaintenanceMode-80765156'


以上です。



○vSphere Clientで、ESXi5のバージョンが変化した。
パッチ前: ビルド 469512
パッチ後: ビルド 515841

○ESXi5のパッチには新しいVMware Toolsも含まれている場合がある。



(参考)
・How do I patch ESXi 5?
< http://communities.vmware.com/thread/328758 >  2012-3-1

・HOWTO: Patch VMware vSphere ESXi 5.0 Free Edition
< http://www.itadmintools.com/2012/02/howto-patch-vmware-vsphere-esxi-50-free.html > 2012-3-1

投げ銭

★当サイトへの投げ銭(PayPal)★

Ad

Ad