Add static route on Netapp

Netapp filer’in üzerine static route eklemek;

filer01> route
usage:
route [-fn] add [inet] [host|net] <destination>[&netmask|/prefixlen] <gateway> <metric>
route [-fn] add [inet] default <gateway> <metric>
route [-fn] delete [inet] [host|net] <destination>
route [-fn] delete [inet] default
route -s

Örnek;

route add inet host 10.10.10.202 10.10.5.222 1

Riverbad yada alternatif wan optimizer kullanırsanız, static route yazmak gerekebiliyor.

ESXi multipath policy değiştirme

ESXi storage’tan gelen fiber(SAN) disk’lerin multipath policy ayarlarını aşağıdaki gibi değiştirebilirsiniz.
Genelde path fixed olarak kullanılır ama önerilen round robin olarak kullanılması. Bu seçim tamamen sizin oluşturacağınız alt yapı ile ilgilidir.

Listemizi oluşturup hızlıdan path’leri round robin yapalım;

# esxcli storage nmp device list

naa.60a98000000e0f000c0a000c0f000000 (naa. ile başlıyalan satırlar bizim için önemli)
Device Display Name: NETAPP Fibre Channel Disk (naa.60a98000000e0f000c0a000c0f000000)
Storage Array Type: VMW_SATP_DEFAULT_AA
Storage Array Type Device Config: SATP VMW_SATP_DEFAULT_AA does not support device configuration.
Path Selection Policy: VMW_PSP_FIXED (bu alanı VMW_PSP_RR yapacağız)
Path Selection Policy Device Config: {preferred=vmhba2:C0:T4:L8;current=vmhba2:C0:T4:L8}
Path Selection Policy Device Custom Config:
Working Paths: vmhba2:C0:T4:L8
Is Local SAS Device: false
Is Boot USB Device: false

# esxcli storage nmp device set –device=naa.60a98000000e0f000c0a000c0f000000 –psp=VMW_PSP_RR

tekrar device listesini aldığımızda round robine döndüğünü görebilirsiniz. Bu işlemleri yaptığınız ESXi host’unuzu reboot etmeniz gerekmektedir.

 # esxcli storage nmp device list

naa.60a98000000e0f000c0a000c0f000000
Device Display Name: NETAPP Fibre Channel Disk (naa.60a98000000e0f000c0a000c0f000000)
Storage Array Type: VMW_SATP_ALUA
Storage Array Type Device Config: {implicit_support=on;explicit_support=off; explicit_allow=on;alua_followover=on;{TPG_id=3,TPG_state=ANO}{TPG_id=2,TPG_state=AO}}
Path Selection Policy: VMW_PSP_RR
Path Selection Policy Device Config: {policy=rr,iops=1000,bytes=10485760,useANO=0;lastPathIndex=2: NumIOsPending=0,numBytesPending=0}
Path Selection Policy Device Custom Config:
Working Paths: vmhba2:C0:T3:L12, vmhba2:C0:T4:L12, vmhba1:C0:T3:L12, vmhba2:C0:T5:L12, vmhba1:C0:T4:L12, vmhba1:C0:T5:L12
Is Local SAS Device: false
Is Boot USB Device: false

vSphere 5 – DRS invocation not completed error

vCenter’da aşağıdaki hatayı alıyorsanız.

1861176

 

 

ESXi hostlarınızın Ram ve CPU değerleri gözükmüyorsa.

1861176_1

 

 

 

Cluster’da bulunan Host’larınızı tek tek Maintenance çekip sonra Cluster dışına alıp Disconnect Connect adımlarını uygulayarak, sunucunun kaynaklarını tekrardan görebilirsiniz. Kaynakları düzgün görebiliyorsanız tekrar clusterınıza dahil edebilirsiniz.

The Host IPMI System Event Log Status alarm is triggered repeatedly in VMware vCenter Server 4.x and 5.x

Aşağıdaki hatayı aldığınızda, ESXi host’unuzu maintenance alıp, ssh ile bağlanıp aşağıdaki komutu çalıştırıp. hostumuzu reboot etmemiz yeterli olacaktır.

ipmi_hata

 

 

Clear the IPMI logfiles with:

# localcli hardware ipmi sel clear

Restart the hardware status provider

# /etc/init.d/sfcbd-watchdog restart

You also can list the logs with :

# localcli hardware ipmi sel list

Record:1:
Record Id: 1
When: 2015-03-03T15:16:15
Event Type: 111 (Unknown)
SEL Type: 2 (System Event)
Message: Assert + Event Logging Disabled Log area reset/cleared
Sensor Number: 254
Raw:
Formatted-Raw: