Dampak Inferensi AI terhadap Arsitektur Pusat Data

Pernah dikatakan bahwa anggaran TI adalah tempat di mana strategi bisa hidup atau mati. Jika itu benar, maka strategi AI saat ini masih sangat hidup dan berkembang.

Penelitian terbaru kami menunjukkan bahwa organisasi saat ini mengalokasikan rata-rata 18% dari anggaran TI khusus untuk AI. Namun, yang lebih menarik adalah bagaimana alokasi 18% itu digunakan—dan dari situlah kita bisa melihat strategi AI mereka.

Sekitar 18% dari anggaran AI saat ini digunakan untuk layanan AI—yaitu aplikasi pihak ketiga yang mengintegrasikan atau menawarkan alat bantu berbasis AI. Sisanya dialokasikan ke:

  • Model AI (19%)
  • Pengembangan (16%)
  • Keamanan (9%)
  • Teknologi data (11%)
  • GPU (9%)

Dikombinasikan dengan fakta bahwa pengeluaran untuk training dan inferensi terbagi rata (masing-masing 50%), serta distribusi AI yang tersebar antara cloud publik (80%) dan on-premises (54%), ini menunjukkan bahwa organisasi sedang merencanakan perubahan besar dalam infrastruktur mereka guna mendukung siklus hidup AI secara penuh.

Jaringan Menjadi Kunci

Mendukung training dan inferensi AI membutuhkan perhatian serius pada lingkungan aplikasi modern, seperti Kubernetes, serta bagaimana lalu lintas data akan mengalir antar instance AI dan antara model AI dan aplikasi yang menggunakannya.

Meskipun NVIDIA bukan satu-satunya penyedia teknologi akselerasi (seperti GPU, DPU, IPU), mereka adalah pemimpin dalam hal referensi arsitektur. Di sanalah kita bisa melihat dampak besar pada jaringan dan skalabilitas arsitektur.

AI Pods, Clusters, dan Factories

Saat ini ada banyak kebingungan di industri terkait istilah yang digunakan dalam ekosistem Kubernetes. Misalnya, NVIDIA menyebut AI pods yang sebenarnya adalah Kubernetes clusters, dan mereka menyebut kumpulan cluster tersebut sebagai AI factory.

Kami tidak akan berdebat soal istilah—itu perdebatan yang jarang dimenangkan—tapi kami akan fokus pada unit kapabilitas AI ini dan apa artinya bagi jaringan.

Untuk menskalakan AI generatif, salah satu tantangan terbesar adalah kebutuhan terhadap siklus komputasi, khususnya komputasi GPU. Untuk memenuhi permintaan ini—terutama bagi penyedia layanan AI—mereka perlu membangun unit komputasi AI yang kompleks, yang oleh NVIDIA disebut AI pods. Tapi pada intinya, unit-unit ini adalah cluster Kubernetes.

Artinya, akan ada lalu lintas data E-W (east-west) yang besar di dalam unit komputasi AI, serta lalu lintas N-S (north-south) yang besar masuk ke unit tersebut. Dan di sinilah perubahan besar terjadi pada batas antara infrastruktur pusat data tradisional dan kompleks komputasi AI yang sedang berkembang.

Kebutuhan di Batas Jaringan

Ada banyak hal yang harus diperhatikan di titik batas tersebut, terutama bagi penyedia layanan yang membutuhkan isolasi jaringan per tenant. Selain itu, dibutuhkan:

  • Manajemen lalu lintas tingkat L4-7 (seperti throttling kecepatan agar sumber daya AI tidak kewalahan)
  • Load balancing untuk skala dan distribusi beban kerja
  • Layanan jaringan canggih, seperti CGNAT (Carrier-Grade NAT)

Kebutuhan-kebutuhan ini juga berlaku bagi perusahaan (enterprise) yang ingin menskalakan implementasi AI mereka untuk mendukung berbagai kasus penggunaan bisnis: mulai dari produktivitas, pembuatan kode dan konten, otomatisasi alur kerja, hingga pengelolaan operasional dengan bantuan AI.

Walaupun isolasi per tenant mungkin tidak wajib bagi perusahaan, namun ini bisa sangat membantu untuk memastikan beban kerja AI dengan prioritas tinggi—seperti otomatisasi atau analitik operasional—tidak terganggu oleh beban kerja AI berprioritas rendah.

Kesimpulan: Evolusi Arsitektur Pusat Data

Baik untuk penyedia layanan maupun perusahaan, pusat data akan mengalami perubahan besar, terutama pada aspek jaringan. Jika AI dimasukkan begitu saja ke dalam arsitektur pusat data tradisional, kemungkinan besar itu akan gagal diskalakan atau bahkan tidak dapat berjalan secara andal.

Memahami perubahan arsitektur pusat data menjadi sangat penting, begitu juga memiliki alat dan teknologi yang tepat—seperti BIG-IP Next SPK—untuk menyediakan kapabilitas yang dibutuhkan dalam memodernisasi jaringan pusat data, mendukung setiap beban kerja AI, dan bisnis yang pada akhirnya akan sangat bergantung padanya.

Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan F5 Indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman.
Hubungi kami sekarang atau kunjungi (NamaWebsiteBrandiLogo).com untuk informasi lebih lanjut!