Self Learner | Information Technology Enthusiast | Hamba Allah

My photo
Pribadi yang berdzikir itu : kalau bicara, bicaranya dakwah, diamnya berdzikir, nafasnya tasbih, matanya penuh ramat Allah, telinganya terjaga, pikirannya baik sangka, tidak suka sinis, pesimis dan tak suka memvonis. . dia tidak sibuk mencari kesalahan orang lain dan asik memperbaiki dirinya . . (Ust.Muhammad Arifin Ilham)

Thursday, July 28, 2016

Persiapan implementasi VMware NSX


http://1.bp.blogspot.com/-mV2wpdbpung/U58-Q161OsI/AAAAAAAAVJs/T6Y8cBj0x28/s1600/nsx.png
Sebelum kita melakukan instalasi VMware NSX, terdapat beberapa pra-syarat dan kebutuhan yang harus dipenuhi sebelum menginstall VMware NSX. Untuk lebih jelasnya berikut saya coba sebutkan beberapa hal yang harus dipenuhi agar instalasi NSX dapat berjalan dengan baik:
  1. Konfigurasi vCenter Server sudah berjalan dengan baik, untuk jumlah clusternya dapat disesuaikan dengan kebutuhan sesuai design, hanya saja dalam beberapa real production setidaknya dibutuhkan (minimum) 2 Cluster, yaitu: Cluster Management dan Cluster Compute
  2. Memiliki browser yang dapat menjalankan vCenter Web Client, dikarenakan NSX hanya bisa diakses melalui vCenter Web Client dan tidak dapat diakses melalui vSphere Client.

Berikut beberapa browser yang mendukung untuk vCenter Web Client:
  • Microsoft Internet Explorer 8, 9 (64-bit only), and 10
  • Google Chrome yang ter-update, atau minimum 1 versi ketika dibuatnya NSX 6.0
  • Mozilla Firefox yang ter-update, atau minimum 1 versi ketika  dibuatnya NSX 6.0

  1. Untuk instalasi NSX ini akan menggunakan Distributed Virtual Switch (dvSwitch), jadi pastikan seluruh cluster yang ada didalam vCenter sudah terkoneksi dengan dvSwitch secara benar, terutama untuk konfigurasi uplinknya ke physical switch.
  2. Untuk NSX dari versi 6.0, minimum persyaratannya adalah menggunakan VMware vCenter 5.5 atau yang lebih terbaru, untuk selengkapnya dapat dilihat dari table interoperability matrix dibawah ini:
  1. Jika ingin menggunakan mode VXLAN unicast, maka minimum ESXi hypervisor yang digunakan adalah versi 5.5, dikarenakan mode unicast baru disupport mulai dari ESXi 5.5, sedangkan jika masih menggunakan versi ESXi dibawah 5.5 maka harus menggunakan VXLAN dengan mode multicast, dan jika menggunakan mode multicast maka pada seluruh physical switch harus diaktifkan fitur multicastnya (IGMP, PIM).
  2. NTP Server sudah dikonfigurasi dengan benar, dan pastikan seluruh komponen VMware mulai dari ESXi hypervisor, vCenter Server, NSX Manager dan lainnya “Time” nya sudah tersinkronisasi dengan benar dan akurat.
  3. DNS Server juga sudah dikonfigurasi dengan benar, hal ini untuk memastikan “name resolution” dapat bekerja dengan baik ketika kita melakukan penambahan host berdasarkan FQDN, bila tidak maka vCenter tidak dapat meresolve IP address dari host tersebut.
  4. Pastikan resource yang kita gunakan terutama pada cluster Management cukup untuk kita deploy seluruh komponen-komponen VMware NSX. Untuk lebih jelas mengenai sizing komponen NSX dapat dilihat pada postingan sebelumnya: Sizing VMware NSX Components
  5. Pastikan besar MTU port Physical Switch dan distributed Virtual Switch (dvSwitch) sudah diset lebih besar dari 1550, sebaiknya minimum gunakan size MTU-nya sebesar 1600 MTU. Dikarenakan terjadinya enkapsulasi paket UDP pada VTEP (VXLAN tunneling Endpoint) antar host untuk traffic VXLAN.

Demikian beberapa prasyarat yang seharusnya dipersiapkan sebelum melakukan implementasi VMware NSX agar instalasi yang dilakukan semuanya berjalan dengan lancar, dan untuk langkah-langkah instalasi VMware NSX selanjutnya akan dijelaskan pada postingan berikutnya.
Kindly please put your comment, suggestion or question in comment below ☺

28 July 2016
Donny Achmadi

Thursday, July 21, 2016

Menjalankan Multiple Profile OpenVPN di Windows


Untuk menjalankan beberapa profile OpenVPN dalam waktu yang bersamaan memiliki kendala pada TAP-Adapter nya, dimana setiap session tunnel OpenVPN menggunakan 1 TAP-Adapter, sementara jika kita menginstall OpenVPN di Windows maka secara default akan terinstall hanya 1 TAP-Driver saja.
Maka, untuk dapat menjalankan beberapa profile OpenVPN sekaligus dalam waktu yang bersamaan dibutuhkan jumlah TAP-Driver sesuai jumlah profile yang diinginkan.
Dalam kasus ini, saya membutuhkan 2 profile OpenVPN yang harus dijalankan bersamaan, maka existing sudah terdapat 1 TAP-Adapter selanjutnya hanya tinggal menambahkan (meng-install) 1 TAP-Adapter lainnya.
Berikut langkah-langkah untuk menambahkan (menginstall) TAP-Adapter pada Windows 7:
  1. Buka icon windows, dan ketikkan CMD atau command prompt:
Atau juga bisa dengan membuka “Run” dan ketikkan “cmd”

  1. Apabila sudah muncul hasil pencarian dari cmd, maka klik kanan pada command prompt dan pilih “Run as administrator”

  1. Masuk ke direktori C:\Program Files\TAP-Windows\bin, dan jalankan file “addtap.bat”
C:\Users\donny\AppData\Local\Temp\SNAGHTML100f0d8.PNG
Apabila muncul alert, maka klik allow untuk mengizinkan proses instalasi TAP-Adapter baru, tunggu sebentar sampai proses instalasi selesai yang ditandai dengan pesan “Drivers installed successfully”.
Silahkan di-check sekarang TAP-Adapter sudah terlihat muncul 1 TAP-Adapter baru.
Sampai tahap ini sudah selesai, dan kini sudah dapat menjalankan 2 Profile OpenVPN sekaligus dalam waktu yang bersamaan.
Jika dibutuhkan untuk menjalankan lebih dari 2 profile sekaligus (misalnya: 4 profile) maka tinggal lakukan saja instalasi TAP-Adapter selanjutnya menggunakan langkah yang sama sebanyak yang dibutuhkan.

Thank you.
Donny Achmadi



Monday, July 18, 2016

Sizing VMware NSX Components


http://4.bp.blogspot.com/-sT35PwnvQcw/Vo_mfda0eEI/AAAAAAAAABU/j54Bo5pmoVM/s1600/comp.png

VMware NSX memiliki cukup banyak komponen-komponen yang ada didalamnya, untuk melakukan implementasi VMware NSX kita membutuhkan resource yang cukup besar untuk mendeploy seluruh komponen-komponen yang ada.
Beberapa saat yang lalu saya agak kesulitan melakukan implementasi VMware NSX dikarenakan sizing tiap komponen yang ternyata beragam dan beberapa komponen membutuhkan hingga 3x VM (NSX controller) sesuai best practice dari VMware.
Dari beberapa sumber resmi dan non-resmi, berikut saya buat sizing komponen VMware NSX dalam table berikut:
Komponen
Size
CPU
RAM
Disk
NSX Edge Service Gateway (ESG)
Compact
1
512 MB
512 MB
Large
2
1 GB
512 MB
Quad-L
4
1 GB
512 MB
XL
6
8 GB
4.5 GB
NSX Manager
Standard
4
12 GB
60 GB
Large Scale
8
24 GB
60 GB
DLR Control VM
1
512 MB
500 MB
NSX Controller
4
4 GB
20 GB
Guest Introspection
2
1 GB
4 GB
NSX Data Security
1
512 MB
6 GB per ESXi host
Sesuai best-practice dari VMware, dimana jika jumlah environment hypervisor kita lebih dari 256 host, maka sangat direkomendasikan untuk me-resize NSX manager dari size standard-default menjadi Large scale (8 vCPU, 24 GB Memory).
Untuk NSX Edge, jenis size yang di deploy berbanding lurus dengan performance dan capacity dari NSX Edge itu sendiri, terutama untuk besar throughput, jumlah VPN tunnel, dan concurrent connection. Untuk detail performance matrix NSX edge saya akan coba share pada postingan yang lain.
Untuk NSX Controller jumlah unit yang dideploy adalah bilangan ganjil (1, 3), namun untuk didalam production harus mendeploy 3 NSX controller untuk redundancy dan failover, sehingga jika suatu saat salah satu NSX Controller mengalami failure controller yang lainnya akan takeover agar tidak terjadi downtime pada system.

More information:
Reference Design: VMware NSX for vSphere (NSX) Network Virtualization Design Guide:https://www.vmware.com/files/pdf/products/nsx/vmw-nsx-network-virtualization-design-guide.pdf 
--

Depok, 18 July 2016
Donny Achmadi

Testing VXLAN Tunnel End Point (VTEP) antar ESXi host



Didalam environment VMWare NSX kita dapat membuat sebuah logical switch yang akan dideploy secara distributed kedalam host-host ESXi yang terdapat didalam Cluster pada sebuah Transport Zone. Yang dimana logical switch tersebut bekerja menggunakan sebuah protocol baru berupa VXLAN, tidak lagi menggunakan VLAN dikarenakan limitasi dari sisi jumlah VLAN ID yang dapat dibuat maksimum hanya 4096.
Jika suatu saat kita mengalami kendala pada koneksi VXAN antar host-host, maka kita harus melakukan pengujian traffic VXLAN antar host yang bermasalah tersebut. Untuk pengujiannya terdapat 2 cara yang dapat dilakukan.
  1. Test PING dengan  ++netstack=vxlan dan MTU
Kita dapat melakukan ini dengan cara masuk kedalam konsol ESXi host via SSH, pertama-tama kita harus mengetahui IP yang digunakan oleh Netstack VXLAN Tunneling End Point (VTEP) di host tujuan dengan cara menjalankan “esxcfg-vmknic –l”

Setelah menemukan ip VTEP pada host tujuan, kemudian melakukan test ping ++netstack=vxlan ke IP VTEP host tujuan dengan load MTU yang dibutuhkan oleh VXLAN (1600) menjalankan command berikut:

vmkping ++netstack=vxlan -s MAXMTU -28 -d destination_Host_VTEP_IP

**MAX MTU disini yang sudah di set pada physical network switch dan VDS adalah 1600, maka dikurangi 28 = 1572

[root@localhost:~] ping ++netstack=vxlan -s 1572 -d 10.10.61.187
PING 10.10.61.187 (10.10.61.187): 56 data bytes
64 bytes from 10.10.61.187: icmp_seq=0 ttl=64 time=1.601 ms
64 bytes from 10.10.61.187: icmp_seq=1 ttl=64 time=0.653 ms
64 bytes from 10.10.61.187: icmp_seq=2 ttl=64 time=0.991 ms

--- 10.10.61.187 ping statistics ---
3 packets transmitted, 3 packets received, 0% packet loss
round-trip min/avg/max = 0.653/1.082/1.601 ms
[root@localhost:~]

Jika hasilnya adalah reply, maka ini berarti koneksi VTEP antar host sudah OK dan tidak ada masalah.

  1. Test VXLAN pada web-console
Testing VXLAN menggunakan web-console sebenarnya bagi sebagian orang lebih mudah, dikarenakan tidak perlu menghafal command pada ESXi console via SSH dan mencari nomor vmkernel yang digunakan, namun cukup dengan beberapa click testing VXLAN bisa dilakukan.

Caranya adalah dengan akses ke vCenter dan masuk ke menu Networking and Security, selanjutnya masuk ke menu “Logical Switch”. Kita pilih logical switch mana yang sedang mengalami masalah pada koneksinya.


Kemudian klik 2x pada logical switch yang bermasalah dan pilih tab “monitor” dan menu ping, maka disini kita perlu memasukkan parameter berupa source dan destination host


Kita pilih host source dan destination sesuai dengan masalah koneksi antar host yang terjadi dan size of test packet kita pilih VXLAN standard, kemudian klik “Start Test

Jika koneksi VXLAN antar host OK maka akan muncul green sign seperti gambar berikut:

Namun jika terdapat masalah maka akan muncul error message, seperti salahsatunya error berikut:

Permasalahan yang umumnya terjadi pada koneksi VXLAN antar host adalah issue pada MTU size antar host minimum 1600 MTU, maka lakukan crosscheck pada seluruh host didalam cluster pastikan VTEP dan juga pada port di physical networknya sudah menggunakan jumbo frame atau minimum MTU 1600.

Source : KB VMware