Skip to content
  • Beranda
  • Produk
    • SSL Orchestrator
    • Local Traffic Manager
    • Viprion Chassis
    • iSeries Appliance
    • DNS Cloud Service
    • Big IQ
    • Big IP Cloud Edition
    • Big IP Virtual Edition
  • Solusi
    • Service Providers
    • Banking dan Layanan Finansial
  • Blog
  • Hubungi Kami
placeholder-661-1-1.png
  • Beranda
  • Produk
    • SSL Orchestrator
    • Local Traffic Manager
    • Viprion Chassis
    • iSeries Appliance
    • DNS Cloud Service
    • Big IQ
    • Big IP Cloud Edition
    • Big IP Virtual Edition
  • Solusi
    • Service Providers
    • Banking dan Layanan Finansial
  • Blog
  • Hubungi Kami
Cisco-indonesia.png

Category: Blog

19 January 2025

F5 2025 Outlook Teknologi: Menavigasi Lanskap Perusahaan Baru

Saat kita memasuki tahun 2025, AI generatif mungkin mendominasi headline, tetapi itu hanya salah satu dari beberapa kekuatan yang membentuk ulang perusahaan digital. Meningkatnya biaya dan kompleksitas mendorong perusahaan untuk memindahkan kembali beban kerja penting, seperti penyimpanan dan data, dari cloud publik ke on-premises. Meskipun pergeseran ini bertujuan untuk meningkatkan kontrol dan mengoptimalkan sumber daya untuk inisiatif yang didorong oleh AI, penghentian penuh penggunaan cloud tidak akan terjadi dalam waktu dekat. Perusahaan akan terus dengan pendekatan hybrid, menyeimbangkan beban kerja di cloud publik, on-premises, dan lingkungan edge. Namun, pendekatan hybrid ini membawa tantangan baru dalam mengamankan, mengirimkan, dan mengoperasikan aplikasi di berbagai platform. Di F5, kami fokus pada teknologi baru yang menjanjikan untuk mengatasi kompleksitas ini dan mengubah pengiriman aplikasi, keamanan, dan operasi digital. Berikut adalah lima teknologi yang kami yakini akan berdampak besar pada perusahaan di tahun 2025.   WebAssembly WebAssembly (Wasm) menawarkan solusi praktis untuk era multicloud hybrid, memberikan kemampuan untuk menjalankan aplikasi di mana saja runtime Wasm tersedia. Manfaat Wasm melampaui portabilitas; Wasm meningkatkan kinerja dan keamanan, memungkinkan organisasi untuk menyebarkan dan menskalakan aplikasi di berbagai lingkungan tanpa mengorbankan efisiensi.   AI Agenik AI Agenik sedang merevolusi operasi perusahaan dengan menggantikan alur kerja SaaS tradisional dengan proses otomatis yang didorong oleh AI. Dengan bertindak secara otonom dalam pedoman yang telah ditentukan sebelumnya, AI Agenik memungkinkan perusahaan untuk merampingkan operasi secara lebih efektif, mengurangi ketergantungan pada perangkat lunak yang mahal dan kompleks, serta memungkinkan adaptabilitas yang lebih besar.   Klasifikasi Data Dengan meningkatnya permukaan serangan dan regulasi data yang berkembang, klasifikasi data secara real-time menjadi hal yang sangat penting. Model AI generatif sedang memajukan klasifikasi data di luar sistem berbasis aturan tradisional, memungkinkan perusahaan untuk meningkatkan keamanan, memenuhi standar kepatuhan, dan mengelola informasi sensitif dengan lebih efektif.   Gerbang AI Gerbang AI muncul untuk mendukung permintaan unik dari lalu lintas AI, menangani aliran data tidak terstruktur dua arah dan mengelola interaksi yang meningkat dengan bot “baik”. Gerbang ini melampaui fungsi API biasa, memungkinkan perusahaan untuk menskalakan aplikasi AI dengan lancar tanpa mengorbankan kinerja atau keamanan.   Model Bahasa Kecil Kekhawatiran tentang halusinasi AI dan bias telah mempercepat adopsi Model Bahasa Kecil (SLM) dan Generasi yang Ditingkatkan dengan Pengambilan (RAG). Dengan menggabungkan sistem pengambilan dengan model generatif, SLM dan RAG memberikan hasil yang lebih akurat dan kontekstual, menjadikan aplikasi yang didorong oleh AI lebih dapat diandalkan untuk pengambilan keputusan secara real-time. Dan terakhir, kami melihat “melampaui transformer” karena teknologi ini sudah mulai melampaui batas yang harus ditembus. Seiring dengan meningkatnya permintaan untuk arsitektur AI yang efisien, keterbatasan model transformer—seperti konsumsi sumber daya yang tinggi—mendorong inovasi. Model baru, seperti model bahasa besar 1-bit, bertujuan untuk mengoptimalkan akurasi AI sambil meminimalkan kebutuhan perangkat keras. Inovasi-inovasi ini membuka jalan bagi AI yang lebih dapat diakses dan diskalakan di seluruh lingkungan perusahaan. Saat kami memandang ke depan menuju tahun 2025, F5 tetap berkomitmen untuk mengeksplorasi teknologi-teknologi ini, mengantisipasi implikasinya, dan membimbing perusahaan melalui kompleksitas lanskap digital yang terus berkembang. Untuk mengeksplorasi teknologi-teknologi ini—dan mengapa kami menganggapnya sangat penting—secara mendalam, Anda dapat mengunduh F5 2025 Tech Outlook yang berisi komentar dan pengamatan dari para ahli F5 tentang setiap teknologi ini. Saya harap Anda akan menemukannya se-informatif seperti saya saat menyusun semua ini.

Read More
19 January 2025

Kematangan Data: Hambatan untuk AI Lanjutan

Setiap survei tentang AI generatif—termasuk survei kami sendiri—mengarah pada satu kesimpulan yang tidak bisa dihindari: kematangan data akan menjadi penghalang untuk sepenuhnya mewujudkan potensi AI generatif. Ketika kami bertanya tentang tantangan dalam adopsi AI, respons teratas dari 56% responden adalah “kematangan data.” Melihat sekeliling industri menunjukkan bahwa kematangan data adalah hambatan serius dalam perjalanan adopsi AI. Apa itu kematangan data? Kematangan data, dalam konteks AI, mengacu pada praktik pengelolaan data organisasi yang kurang berkembang atau tidak memadai, yang membatasi kemampuannya untuk memanfaatkan AI secara efektif. Hal ini mencakup masalah kualitas data, aksesibilitas, tata kelola, dan infrastruktur, seperti: Kualitas data yang buruk: Data yang tidak konsisten, tidak lengkap, atau usang mengarah pada hasil AI yang tidak dapat diandalkan. Keterbatasan ketersediaan data: Silo data di berbagai departemen menghambat akses dan analisis yang komprehensif, membatasi wawasan yang diperoleh. Tata kelola data yang lemah: Kurangnya kebijakan tentang kepemilikan data, kepatuhan, dan keamanan memperkenalkan risiko dan membatasi penggunaan AI. Infrastruktur data yang tidak memadai: Alat dan infrastruktur yang tidak mencukupi menghambat pemrosesan data dan pelatihan model AI secara skala besar. Strategi data yang tidak jelas: Kurangnya strategi yang jelas menghasilkan inisiatif yang tidak terkoordinasi dan fokus terbatas pada data yang bernilai untuk AI. Kematangan data mencegah organisasi untuk memanfaatkan potensi penuh AI karena data yang berkualitas tinggi, dikelola dengan baik, dan dapat diakses adalah dasar untuk mengembangkan sistem AI yang dapat diandalkan dan efektif. Organisasi yang ingin mengatasi kematangan data sering kali mulai dengan membangun strategi data, mengimplementasikan kebijakan tata kelola data, berinvestasi dalam infrastruktur data, dan meningkatkan literasi data di seluruh tim.   Dampak pada Adopsi AI Kami membahas semua hal tersebut untuk sampai pada inti dari tulisan ini: kematangan data adalah hambatan dalam adopsi AI. Adopsi AI sudah melambat karena organisasi sebagian besar telah memanfaatkan AI generatif yang mudah diakses (chatbot, asisten, co-pilot) dan menghadapi masalah kematangan data saat mereka berusaha beralih ke kasus penggunaan yang lebih bernilai seperti otomatisasi alur kerja. Organisasi yang gagal memprioritaskan kematangan data akan kesulitan untuk membuka kemampuan AI yang lebih maju. Kematangan data mengarah pada kurangnya kepercayaan terhadap analisis dan prediktabilitas eksekusi. Ini membatasi rencana untuk memanfaatkan AI dalam cara yang lebih otonom—baik untuk otomatisasi proses bisnis atau operasional. Sebuah studi tahun 2023 oleh MIT Sloan Management Review menyoroti bahwa organisasi dengan praktik manajemen data yang matang 60% lebih mungkin berhasil dalam otomatisasi alur kerja dibandingkan mereka yang memiliki praktik data yang belum matang. Kematangan data membatasi akurasi prediktif dan keandalan AI, yang sangat penting untuk fungsi otonom di mana keputusan dibuat tanpa campur tangan manusia. Organisasi harus—dan ini adalah HARUS—menyusun pengelolaan data mereka terlebih dahulu sebelum mereka dapat benar-benar memanfaatkan potensi AI untuk mengoptimalkan alur kerja dan membebaskan waktu berharga bagi manusia untuk fokus pada strategi dan desain, tugas-tugas yang belum cocok untuk sebagian besar AI saat ini.   Mengatasi Kematangan Data Mengatasi kematangan data sangat penting untuk memungkinkan kemampuan AI lanjutan. Langkah-langkah kunci termasuk: Mengembangkan strategi data yang jelas Menyelaraskan pengumpulan data, pengelolaan, dan standar kualitas dengan tujuan organisasi untuk memastikan data mendukung proyek AI secara efektif. Menerapkan tata kelola data yang kuat Menetapkan kebijakan untuk kepemilikan data, kepatuhan, keamanan, dan privasi untuk meningkatkan kualitas data dan membangun kepercayaan terhadap wawasan AI. Berinvestasi dalam infrastruktur data yang dapat diskalakan Mengadopsi infrastruktur modern, seperti penyimpanan cloud dan saluran data, untuk mendukung pemrosesan yang efisien dan pelatihan AI yang dapat diskalakan. Meningkatkan standar kualitas data Menetapkan standar untuk akurasi, konsistensi, dan kelengkapan data, dengan pemantauan dan pembersihan data secara rutin. Mempromosikan literasi data dan kolaborasi Mendorong budaya literasi data dan kerja sama antara unit data dan bisnis untuk meningkatkan aksesibilitas dan dampak data. Dengan mengadopsi praktik-praktik ini, organisasi dapat membangun fondasi data yang kokoh untuk AI, yang mengarah pada alur kerja yang dioptimalkan, pengurangan risiko, dan lebih banyak waktu untuk tugas-tugas strategis. Kematangan data bukan hanya kebutuhan teknis; itu adalah keuntungan strategis yang memberdayakan organisasi untuk membuka potensi penuh AI. Dengan mengatasi kematangan data, organisasi dapat beralih dari aplikasi AI dasar ke kasus penggunaan yang lebih transformasional dan bernilai, akhirnya memposisikan diri untuk sukses jangka panjang dalam masa depan yang didorong oleh AI.

Read More
19 January 202519 January 2025

Pentingnya Segmentasi Jaringan untuk Pabrik AI

Selama bertahun-tahun, segmentasi jaringan telah menjadi kunci yang memfasilitasi isolasi ancaman, diferensiasi kualitas layanan, respons dan analisis insiden, audit kepatuhan, dan banyak fungsi interoperabilitas penting lainnya. Namun, ketika kita mengagungkan prinsip zero trust dan terburu-buru dalam menerapkan AI, apakah kita telah mengabaikan elemen inti dari infrastruktur jaringan yang menjadi dasar bagi keamanan siber dan operasi layanan modern? Dalam seri pabrik AI kami sebelumnya, kami mendefinisikan pabrik AI sebagai investasi besar dalam penyimpanan, jaringan, dan komputasi yang melayani kebutuhan pelatihan dan inferensi berperforma tinggi dan bervolume besar. Untuk mewujudkan pengembalian dari investasi ini, pabrik AI secara dinamis menjadwalkan penggunaan unit pemrosesan grafis (GPU) dan komputasi yang bernilai tinggi untuk melakukan pelatihan dan inferensi ini. Penjadwalan GPU memerlukan arsitektur beberapa “penyewa” layanan AI per klaster AI. Ini menimbulkan masalah yang sering tidak disadari oleh banyak tim operasi hingga sering kali sudah terlambat.   Menyelaraskan Sumber Daya Klaster Pabrik AI dengan Segmentasi Jaringan Di dalam sebuah klaster AI, kita dapat secara logis mensegmentasi sumber daya dengan konteks penyewa, yang memungkinkan untuk kuota penyewa, batas konsumsi sumber daya, keamanan sistem host, dan kontrol akses berbasis peran (RBAC) manajemen. Namun, konteks penyewa ini tidak diekspos oleh layanan jaringan dasar yang menyediakan lalu lintas masuk dan keluar klaster AI ke seluruh jaringan pabrik AI. Tanpa konteks ini, dasar dari keamanan siber di pusat data, segmentasi jaringan menjadi buta. Metode umum untuk mengekspos konteks penyewa yang diperlukan sering kali secara signifikan merampas komputasi bernilai tinggi dari pabrik AI atau memperlambat jalur jaringan di bawah batas yang diperlukan untuk latensi layanan, bandwidth, atau konkurensi. Kita menghadapi pilihan palsu antara memanfaatkan sumber daya pabrik AI yang bernilai tinggi secara efisien dan integrasi penyewa yang tepat dengan jaringan.   Segmentasi Jaringan di Infrastruktur Cloud Publik Di infrastruktur cloud publik, desain jaringan multi-penyewa yang terorkestrasi adalah dasar dari semua layanan dalam satu wilayah cloud dan diimplementasikan dengan virtual private clouds (VPC). Segmentasi jaringan virtual ini sangat penting untuk keamanan dan pengukuran sumber daya. Penyedia cloud publik mempertahankan fungsi ini dengan tim pengembang perangkat lunak jaringan dan perangkat keras jaringan khusus, termasuk SmartNIC dan unit pemrosesan data (DPU). Klaster pabrik AI di cloud publik dirancang untuk memanfaatkan orkestrasi jaringan VPC infrastruktur yang mendasarinya. Biaya untuk mempertahankan VPC cukup substansial, tetapi ini adalah inti dari model bisnis cloud publik. Pertanyaannya adalah: Bagaimana sebuah organisasi dapat memaksimalkan investasi pabrik AI-nya dan menjadwalkan GPU serta komputasi secara dinamis tanpa tingkat investasi yang sama seperti penyedia cloud publik?   Langkah Pertama Industri Langkah pertama industri dalam perjalanan ini adalah menggunakan virtualisasi server untuk membuat mesin virtual (VM). VM memanfaatkan pass-through perangkat keras untuk terhubung ke jaringan pusat data yang tersegmentasi. Cukup tempatkan semua mesin virtual pada VLAN yang sama, dan kita dapat melanjutkan operasi seperti biasa jika kita hanya khawatir tentang satu penyewa dalam satu klaster AI. VM juga dapat menangani segmentasi GPU karena vendor GPU mendukung cara untuk membagi perangkat GPU menjadi set inti dan memori, kemudian menetapkannya ke mesin virtual tertentu. Namun, segmentasi perangkat GPU tidak dinamis dan memerlukan restart VM. Selain itu, desain ini membatasi kemampuan untuk membuat kumpulan sumber daya GPU yang dapat diukur di seluruh banyak penyewa. Ini adalah kekurangan signifikan dari solusi ini.   Menyelaraskan Segmentasi Jaringan dengan Klaster Pabrik AI Multi-Penyewa Apa yang terjadi pada klaster pabrik AI kita ketika mereka tidak lagi dapat melayani satu penyewa? Masalah ini bergeser ke pusat data. Dalam klaster pabrik AI, secara default, semua lalu lintas jaringan yang keluar dari pusat data akan diterjemahkan alamat jaringan sumber (SNAT) ke alamat IP node klaster individu yang menjalankan beban kerja tercontainer yang mengeluarkan permintaan jaringan tersebut, secara efektif menyembunyikan sumber sebenarnya. Lalu lintas ini kemudian berasal dari segmen jaringan tempat node itu dideploy. Untuk klaster multi-penyewa, ini berarti kita kehilangan konteks penyewa, dan kita mendapatkan arus lalu lintas keluar yang tercampur dari berbagai penyewa yang mustahil untuk dipilah, diamankan, diperbaiki, atau diaudit. Masalah ini semakin parah ketika lalu lintas masuk juga dipertimbangkan. Sementara lalu lintas masuk mungkin lebih mudah dikelola karena sudah diarahkan dari pusat data yang tersegmentasi, bagaimana cara mengkorelasikan lalu lintas masuk penyewa tunggal dengan lalu lintas keluarnya? Jawabannya berfokus pada retrieval-augmented generation (RAG) dan layanan agen, yang berkomunikasi secara intensif untuk memperoleh data eksternal dan menggunakan layanan eksternal. Ini menjadi usaha lintas tim dengan insinyur platform dan NetOps yang mengidentifikasi masalah untuk pelanggan atau berusaha melewati audit keamanan.   Segmentasi Jaringan Terorkestrasi yang Sadar Klaster untuk Pabrik AI Pabrik AI harus merencanakan solusi jaringan yang kaya fitur, dapat diprogram, aman, dan rendah latensi yang skalabel dalam hal bandwidth dan konkurensi. Konteks penyewa pada Layer 2 (misalnya, VLAN, VxLAN) dan Layer 3 (misalnya, Subnet, antarmuka IPSEC) harus disajikan dari dalam klaster ke jaringan pabrik AI. Metrik observabilitas, log, dan alat pemecahan masalah harus tersedia untuk NetOps. Secara tradisional, banyak solusi tenancy aplikasi dan visibilitas ini disediakan oleh F5 BIG-IP. F5 BIG-IP Container Ingress Services (CIS) secara dinamis menemukan layanan Kubernetes dan mengeksposnya ke pusat data sebagai server virtual, objek konfigurasi yang akan dikenali oleh administrator BIG-IP dari pengaturannya untuk menyajikan server fisik dan mesin virtual. Meskipun BIG-IP menyediakan banyak kebutuhan yang kita cari dalam sebuah solusi, BIG-IP tidak mengelola lalu lintas keluar dari klaster AI ke jaringan pabrik AI, yang diperlukan untuk mempertahankan segmentasi. Untuk mengatasi masalah ini, kami merancang F5 BIG-IP Next untuk Kubernetes, solusi untuk klaster komputasi multi-penyewa yang dibangun di atas platform generasi berikutnya kami, BIG-IP Next. F5 BIG-IP Next untuk Kubernetes sepenuhnya dikelola melalui kontrol plane Kubernetes dan mendukung otentikasi manajemen Kubernetes, RBAC untuk semua sumber daya yang dideklarasikan, mengenali tenancy Kubernetes melalui namespace untuk mendukung segmentasi jaringan yang diperlukan untuk lalu lintas masuk dan keluar. Ini sangat penting untuk arsitektur yang mengutamakan orkestrasi seperti pabrik AI. F5 BIG-IP Next untuk Kubernetes memberikan cara yang disederhanakan bagi NetOps untuk mendeklarasikan pemetaan antara namespace Kubernetes dan segmen jaringan. Peering rute dinamis antara jaringan pabrik AI dan instansi BIG-IP Next menggunakan sintaks konfigurasi rute yang sudah dikenal. Tim NetOps memiliki kemampuan unik untuk memecahkan masalah lalu lintas jaringan langsung untuk lalu lintas masuk dan keluar klaster dengan aman. Tim SecOps…

Read More
19 January 2025

F5 Giving Tuesday 2024: Memberdayakan Tujuan Melalui Kedermawanan yang Penuh Semangat

Tindakan sederhana memberi dapat menciptakan gelombang perubahan yang meluas jauh melampaui satu sumbangan. Ini tentang koneksi, kasih sayang, dan keyakinan kuat bahwa bersama-sama, kita dapat membuat perbedaan. Di F5, kami sepenuhnya mengadopsi filosofi ini, dan kampanye Giving Tuesday tahunan kami adalah bukti dari hal tersebut. Selama enam tahun terakhir, kami telah mengubah Giving Tuesday dari satu hari kedermawanan menjadi perayaan 10 hari yang memberikan dampak secara global, didorong oleh semangat dan komitmen dari para F5er. Giving Tuesday adalah pengalaman yang sangat pribadi bagi semua yang berpartisipasi, dan yang menyatukan tenaga kerja global kami dalam tujuan bersama. Untuk F5 Giving Tuesday 2024, setiap karyawan F5 menerima $50 USD untuk disumbangkan ke lebih dari 2 juta organisasi nirlaba melalui platform pemberian dan sukarelawan tempat kerja kami, Benevity. Namun, ini lebih dari sekadar uang; ini tentang memberdayakan orang-orang kami untuk mendukung tujuan yang paling dekat di hati mereka. Kami bekerja sama dengan kelompok inklusi karyawan (EIG), pemimpin tim, dan administrator kantor lokal untuk memberikan panduan dan inspirasi, memastikan setiap orang merasa terhubung, terinspirasi, dan diberdayakan untuk berpartisipasi. Sebagai salah satu dari banyak program F5 Global Good, Giving Tuesday telah mengalami evolusi yang luar biasa. Kami mulai dengan tingkat partisipasi karyawan sebesar 38% pada 2019 dan telah melesat hingga 81% tahun ini, dengan 100% lokasi global kami berpartisipasi—kampanye kami yang paling sukses hingga saat ini. Hingga saat ini, F5er telah secara kolektif menyumbangkan hampir $3 juta melalui kampanye 10 hari ini, angka yang diperkuat dengan pencocokan sumbangan 100% dari F5. Tentu saja, kampanye ini jauh melampaui statistik. Kampanye ini telah memberikan dampak mendalam bagi F5er kami dan banyak tujuan berharga. Karyawan telah berbagi cerita yang sangat pribadi—menyumbang untuk penelitian kanker sebagai penghormatan kepada orang yang mereka cintai, mendukung organisasi anak angkat berdasarkan pengalaman mereka sendiri—membangun ikatan yang lebih kuat dan menciptakan tempat kerja yang lebih penuh kasih sayang. Cerita-cerita ini menjadi pengingat yang kuat akan koneksi manusia yang ada di jantung pemberian kami. Di sini, karyawan F5 berbagi kata-kata inspiratif mereka tentang apa arti Giving Tuesday bagi mereka, organisasi yang mereka pilih untuk didukung, dan bagaimana hal itu membantu orang lain.

Read More
19 January 2025

Memadamkan Bola Api: Menyederhanakan Kompleksitas Lanskap Hybrid dan Multicloud

Organisasi kini mendistribusikan aplikasi dan API mereka ke lebih banyak lingkungan daripada sebelumnya. Lebih dari sepertiga responden dalam laporan State of Application Strategy (SOAS) dari F5 melaporkan bahwa mereka menyelenggarakan aplikasi mereka di setidaknya enam lingkungan, termasuk pusat data on-premises, beberapa cloud, dan edge. Namun, pendekatan ini telah menciptakan lanskap yang sangat kompleks yang membuat organisasi dan tim TI kesulitan untuk beroperasi dengan kecepatan yang dibutuhkan oleh bisnis mereka. Di F5, kami menyebut kompleksitas yang semakin berkembang ini sebagai “Bola Api.”   Tantangan Lingkungan Hybrid dan Multicloud Saat ini, tim TI ditugaskan untuk mengelola ratusan aplikasi yang terhubung melalui sejumlah API yang terus berkembang, yang didistribusikan ke berbagai lingkungan. Meskipun lingkungan hybrid dan multicloud dapat memberikan fleksibilitas, ketahanan, dan akses ke teknologi canggih, mereka juga dapat menciptakan situasi yang tidak berkelanjutan baik dalam hal efisiensi maupun keamanan: Lingkungan yang terisolasi: Dengan lanskap TI hybrid dan multicloud yang ad hoc, organisasi diwajibkan untuk menyebarkan layanan inti yang redundan di berbagai lingkungan. Ekosistem yang tersebar di berbagai lingkungan ini telah menyebabkan proses yang tidak efisien bagi tim TI, yang semakin rumit dengan banyaknya tugas manual yang diperlukan untuk beroperasi di lingkungan yang berbeda dan beragam, serta silo operasional yang muncul dalam operasi yang demikian terpisah. Akibat dari ketidakefisienan ini adalah meningkatnya biaya untuk menjalankan infrastruktur semacam itu. Permukaan serangan yang lebih luas: Kompleksitas yang lebih besar dari lingkungan hybrid dan multicloud meningkatkan risiko pelanggaran keamanan, kehilangan data, dan ketidakpatuhan terhadap regulasi. Organisasi diwajibkan untuk mengelola kebijakan keamanan dan kontrol akses yang berbeda, yang menyebabkan lebih banyak potensi kerentanannya. Saat perusahaan menjalankan semakin banyak aplikasi modern di ekosistem yang lebih luas, mengamankan lapisan aplikasi juga menjadi jauh lebih menantang. Ini karena jaringan konektivitas baru ini menciptakan permukaan serangan yang lebih luas bagi para pelaku kejahatan siber. Faktanya, 81% dari total serangan yang diredam oleh F5 Distributed Cloud Services pada kuartal pertama 2024 ditargetkan pada API. Seiring aplikasi menjadi pintu depan bagi kejahatan siber, API semakin dianggap sebagai kunci oleh aktor jahat. Keterbatasan visibilitas: Perbedaan dalam kontrol, log, dan alat membatasi visibilitas di seluruh lanskap, sehingga sulit untuk memecahkan masalah dan merespons insiden. Ini juga menyulitkan untuk memperoleh wawasan yang diperlukan untuk mengamankan dan mengoptimalkan aplikasi dan API di seluruh lanskap.   AI Memperburuk Kompleksitas Kebangkitan AI hanya memperburuk masalah ini. Antara 2023 dan 2024, jumlah perusahaan yang bekerja pada inisiatif bisnis yang dibantu AI meningkat 40%. Seiring AI terus diintegrasikan ke dalam operasi perusahaan, hal ini akan mempercepat lingkungan yang terdistribusi saat ini, sambil melepaskan banjir aplikasi baru yang digerakkan oleh AI dan semakin banyak API. Secara tradisional, organisasi telah menggunakan alat yang terpisah untuk memantau, mengamankan, dan mengelola API sepanjang siklus hidup pengembangan aplikasi. Dalam masa depan yang digerakkan oleh AI, pendekatan ini tidak dapat bertahan. Peningkatan penerapan API gateway oleh pelanggan F5—95% pada 2024 dibandingkan dengan 35% pada 2019—menunjukkan bahwa pergeseran menuju solusi keamanan API yang komprehensif telah dimulai.   Pendekatan Platform Tunggal Di F5, kami percaya untuk menemui pelanggan di tempat mereka berada, sehingga mereka dapat memanfaatkan keuntungan dari lingkungan hybrid dan multicloud hari ini tanpa terjebak pada tantangan masa depan. Dengan membantu organisasi untuk mengamankan, mengirimkan, dan mengoptimalkan setiap aplikasi dan API di seluruh lingkungan hybrid dan multicloud mereka, mereka dapat menenangkan Bola Api yang berkembang. Saat ini, pelanggan bergantung pada terlalu banyak solusi titik. Mereka mungkin memiliki solusi dan vendor yang berbeda untuk setiap lingkungan infrastruktur. Ini tidak hanya mengarah pada konsol manajemen yang beragam, tetapi juga menghalangi mereka untuk menerapkan kebijakan yang konsisten di semua lingkungan ini. Untuk menyederhanakan lingkungan yang semakin kompleks, perusahaan membutuhkan rangkaian kemampuan terbaik yang terintegrasi dan komprehensif yang disediakan melalui satu platform. Pendekatan platform tunggal memungkinkan kemampuan rekognisi keamanan otomatis dan pengujian penetrasi, sehingga perusahaan dan tim TI dapat menentukan dan mengatasi kerentanannya pada aplikasi dan API. Ini juga memungkinkan perusahaan untuk menerapkan manajemen yang terintegrasi dan kebijakan yang seragam, sambil memperoleh visibilitas yang konsisten di seluruh lingkungan mereka. Ini tidak hanya membantu perusahaan mengendalikan keamanan mereka dengan lebih baik, tetapi juga menyederhanakan operasi, sambil mengurangi biaya operasional.   Memadamkan Bola Api Hybrid dan multicloud adalah kunci untuk menghadirkan pengalaman digital luar biasa yang dibutuhkan bisnis dan pelanggan mereka. Namun, lingkungan yang kompleks ini membawa banyak kompleksitas operasional, biaya, dan risiko. Dengan platform terintegrasi untuk mengirimkan, mengamankan, dan mengoptimalkan semua aplikasi dan API mereka di seluruh lingkungan yang semakin terdistribusi saat ini, organisasi dapat menenangkan Bola Api—secara radikal menyederhanakan kompleksitas yang menghambat kemajuan bisnis mereka.

Read More
19 January 2025

Kekuatan dan Makna NVIDIA BlueField DPU untuk Pabrik AI

Saat organisasi mempercepat inovasi, mengembangkan produk-produk bertenaga AI yang mengubah kehidupan seperti mobil otonom atau model bahasa besar (LLM), infrastruktur yang efisien menjadi kunci untuk mengskalakan operasi dan tetap kompetitif. Secara historis, pusat data telah berfokus pada penggunaan unit pemrosesan pusat (CPU) untuk komputasi umum dan unit pemrosesan grafis (GPU) untuk tugas pemrosesan paralel intensif yang menjadi inti dari AI dan pembelajaran mesin. Seiring berkembangnya model AI dalam skala dan kompleksitas, pusat data telah menjadi unit komputasi baru, mendorong batas-batas jaringan cloud tradisional. Untuk memungkinkan transformasi menuju komputasi skala pusat data, unit pemrosesan data (DPU) muncul sebagai pilar ketiga dalam komputasi.   Munculnya Pabrik AI Dalam seri pabrik AI sebelumnya, F5 mendefinisikan pabrik AI sebagai investasi besar dalam penyimpanan, jaringan, dan komputasi yang melayani kebutuhan pelatihan dan inferensi dengan volume tinggi dan kinerja tinggi. Seperti pabrik manufaktur tradisional, pabrik AI memanfaatkan model AI yang sudah dilatih sebelumnya untuk mengubah data mentah menjadi kecerdasan.   Apa itu Data Processing Unit (DPU)? DPU adalah prosesor yang dapat diprogram yang dirancang untuk menangani pergerakan dan pemrosesan data besar melalui akselerasi perangkat keras pada kecepatan jaringan. Pada akhir 2024, kami mengumumkan BIG-IP Next untuk Kubernetes yang diterapkan pada NVIDIA BlueField-3 DPU. NVIDIA BlueField adalah platform komputasi terakselerasi untuk infrastruktur pusat data, dibangun khusus untuk mendukung pabrik AI NVIDIA. Sementara CPU bertanggung jawab untuk komputasi umum pada aplikasi komputasi dan GPU unggul dalam tugas komputasi terakselerasi seperti perhitungan vektor dan matriks skala besar yang terkait dengan AI serta rendering grafis, NVIDIA BlueField DPU sering diintegrasikan ke dalam kartu antarmuka jaringan (NIC) PCIe (peripheral component interconnect express), yang bertanggung jawab untuk konektivitas jaringan untuk host atau sasis dari sebuah cluster AI. Dengan kata lain, NIC kini pada dasarnya telah menjadi prosesor yang kuat, dioptimalkan untuk memproses data saat bergerak masuk dan keluar dari server. BlueField DPU juga dapat berfungsi sebagai perangkat jaringan antar-cluster ketika banyak host atau sasis ada dalam satu cluster AI.   DPU adalah prosesor yang dapat diprogram yang dirancang untuk menangani pergerakan dan pemrosesan data besar melalui akselerasi perangkat keras pada kecepatan jaringan. Kekuatan yang Tercapai Dengan menangani jaringan yang didefinisikan oleh perangkat lunak, manajemen penyimpanan, dan layanan keamanan, BlueField DPU mengurangi beban komputasi pada CPU, memungkinkan CPU untuk fokus pada tugas-tugas yang menjadi keahliannya. Kemampuan pemindahan beban ini sangat penting untuk pabrik AI, di mana sejumlah besar data harus diproses dan dipindahkan dengan cepat untuk memenuhi tuntutan model AI yang kompleks dan tugas inferensi waktu nyata. BlueField DPU berkontribusi secara signifikan terhadap efisiensi energi dan skalabilitas di dalam pabrik AI. Karena pabrik AI membutuhkan sumber daya komputasi yang besar, pengelolaan daya dan pendinginan yang efisien menjadi sangat penting. DPU, dengan mesin akselerasi khusus dan antarmuka jaringan berperforma tinggi, memastikan data diproses dan dipindahkan dengan latensi dan konsumsi daya yang minimal. Efisiensi ini tidak hanya mengurangi biaya operasional tetapi juga memungkinkan pabrik AI untuk berkembang secara efektif. Dengan BlueField DPU, pabrik AI dan infrastruktur skala besar dapat mencapai infrastruktur yang seimbang, berperforma tinggi, dan efisien yang mendukung inovasi dan penerapan teknologi AI secara berkelanjutan.   Di mana BlueField DPU diterapkan dalam pabrik AI? Ketika melihat Arsitektur Referensi AI F5, DPU umumnya diterapkan dalam area fungsional seperti manajemen korpus RAG, fine-tuning, pelatihan, dan layanan inferensi serta kluster penyimpanan yang mendukung fungsi-fungsi ini. Selain itu, DPU ditemukan dalam berbagai aplikasi di mana throughput data berperforma tinggi dan efisiensi daya diperlukan, termasuk contoh seperti DPU yang mendukung penerapan jaringan akses radio 5G (RAN).   Pemindahan dan percepatan pengiriman aplikasi dan keamanan ke DPU Kebutuhan baru untuk manajemen lalu lintas yang efisien dan keamanan yang kuat untuk pabrik AI mewakili perubahan penting yang berfokus pada aliran data dan infrastruktur yang diperkuat untuk mencegah ancaman keamanan. F5 BIG-IP Next untuk Kubernetes yang diterapkan pada NVIDIA BlueField-3 DPU memungkinkan konektivitas dengan latensi rendah dan throughput tinggi dengan memindahkan dan mempercepat pergerakan data dari CPU ke DPU. Selain itu, ia mengintegrasikan fitur keamanan komprehensif, seperti firewall, mitigasi DDoS, WAF, perlindungan API, dan pencegahan intrusi, langsung pada DPU NVIDIA BlueField-3 yang dapat diprogram. Ini memungkinkan Anda untuk membuat arsitektur yang mengisolasi model dan aplikasi AI dari ancaman, memastikan integritas dan kedaulatan data. BIG-IP Next untuk Kubernetes mendukung multi-tenant, memungkinkan hosting banyak pengguna dan beban kerja AI pada satu infrastruktur, memungkinkan isolasi jaringan. Mengelola infrastruktur AI skala besar menjadi mudah dengan BIG-IP Next untuk Kubernetes, karena menyediakan titik pusat untuk mengelola jaringan, manajemen lalu lintas, keamanan, dan lingkungan multi-tenant. Ini menyederhanakan operasi dan mengurangi pengeluaran operasional dengan menawarkan data lalu lintas terperinci untuk visibilitas jaringan dan optimalisasi kinerja. Integrasi antara BIG-IP Next untuk Kubernetes dan NVIDIA BlueField-3 DPU membantu memastikan pabrik AI beroperasi pada potensi penuh mereka sambil mengurangi penyebaran alat dan kompleksitas operasional.   Didukung oleh F5 Bagi perusahaan yang berinvestasi dalam AI, memastikan infrastruktur mereka dioptimalkan dan aman adalah hal yang tidak bisa dinegosiasikan. F5 BIG-IP Next untuk Kubernetes yang diterapkan pada NVIDIA BlueField-3 DPU adalah investasi strategis untuk memberikan kinerja tinggi, skalabilitas, dan keamanan, memaksimalkan pengembalian investasi dalam infrastruktur AI skala besar. Untuk organisasi yang menerapkan GPU dan DPU untuk mendukung investasi pabrik AI, hubungi F5 untuk mempelajari bagaimana BIG-IP Next untuk Kubernetes dapat meningkatkan beban kerja AI Anda.

Read More
1 January 2025

F5 dan MinIO: Era Baru Manajemen Data untuk Aplikasi AI

F5 dan MinIO: Era Baru Manajemen Data untuk Aplikasi AI Data kepemilikan adalah bagian penting dari setiap organisasi, dan mengelola data tersebut secara efisien sangat penting untuk mempertahankan keunggulan kompetitif. Kemitraan baru antara F5 dan MinIO menandai langkah maju yang signifikan dalam manajemen data, menawarkan solusi yang kuat bagi bisnis yang menghadapi tantangan dalam penyimpanan data, keamanan, dan aksesibilitas. Dengan menggabungkan keahlian F5 dalam jaringan multicloud yang aman dan manajemen lalu lintas berkecepatan tinggi dengan penyimpanan objek berkinerja tinggi dari MinIO, bisnis dapat mencapai skalabilitas, keamanan, dan efisiensi yang luar biasa. Mengoptimalkan Aplikasi AI dengan Penyimpanan S3-kompatibel yang Dapat Diskalakan dari F5 dan MinIO Ketika berbicara tentang aplikasi AI dan kebutuhan penyimpanan uniknya, kebutuhan akan penyimpanan objek yang kuat, dapat diskalakan, dan berkinerja tinggi sangatlah penting. Penyimpanan S3-kompatibel MinIO dan AIStor memenuhi kebutuhan ini dengan memberikan kinerja luar biasa pada skala besar, membuat data dalam jumlah besar mudah diakses dan dikelola. Seiring dengan meningkatnya kebutuhan penyimpanan data dan kinerja, pengelolaan penyimpanan data menjadi lebih kompleks, dan di sinilah solusi load balancing terbaik dari F5, dalam bentuk perangkat keras, perangkat lunak, atau SaaS, menjadi sangat penting. Mengapa Penyimpanan S3-kompatibel Penting? Kompatibilitas S3 memastikan integrasi yang mulus dengan berbagai alat dan layanan dalam ekosistem AI, memungkinkan aliran data yang lancar dan interoperabilitas. Selain itu, kemampuan untuk beroperasi secara konsisten di berbagai lingkungan cloud publik, pribadi, dan hibrida memungkinkan aplikasi AI menjadi fleksibel dan dapat disesuaikan. Ini memastikan kinerja optimal dan pemanfaatan sumber daya tanpa memandang infrastruktur yang mendasarinya. Kombinasi skalabilitas, kinerja, dan kompatibilitas ini menjadikan penyimpanan S3-kompatibel sebagai komponen penting untuk aplikasi AI. Manajemen Lalu Lintas untuk Ingesti Data Salah satu fitur unggulan dari kolaborasi F5 dan MinIO adalah manajemen lalu lintas yang dioptimalkan untuk ingesti data. Versi open-source NGINX + MinIO bisa menjadi pilihan yang baik bagi pelanggan yang baru memulai. Untuk mereka yang mencari solusi tingkat perusahaan, F5 BIG-IP yang terpasang di depan MinIO memungkinkan load balancing berperforma tinggi dan throughput volume besar yang diperlukan untuk menangani pelatihan model AI dan fine-tuning di pabrik AI. Pengaturan ini memungkinkan untuk meningkatkan bandwidth hingga ratusan Gbps, memastikan bahwa bahkan operasi yang paling memakan data dapat ditangani dengan lancar. Repatriasi Data dan Replikasi Regional Repatriasi data—memindahkan data kembali dari cloud publik ke cloud pribadi atau on-premises—merupakan tren yang berkembang karena bisnis berusaha mengoptimalkan biaya dan meningkatkan kinerja. Nilai elastisitas cloud menjadi berkurang seiring dengan stabilnya model bisnis dan persyaratan teknis. F5 Distributed Cloud Services menawarkan layanan anycast ke titik MinIO terdekat, meningkatkan kinerja dan aksesibilitas. Replikasi regional dan pengelompokan lebih lanjut memastikan bahwa data selalu tersedia dan dapat diandalkan. Fitur-fitur ini sangat penting untuk keberlanjutan bisnis dan kinerja saat pelanggan membangun dan meningkatkan infrastruktur AI mereka. Jaringan Multicloud Aman untuk Penyimpanan Terdistribusi dan Mobilitas Data Konektivitas yang aman, cepat, dan dapat diandalkan sangat penting di dunia di mana data dan aplikasi tersebar di berbagai lingkungan (on-premises, hibrida/multicloud, dan edge). Gravitasi data semakin penting dalam memproses dan menganalisis data yang paling dekat dengan sumber daya komputasi. Solusi F5 dan MinIO unggul di sini dengan memungkinkan konektivitas yang aman dan berkinerja tinggi untuk pelatihan model AI, augmentasi pencarian, dan inferensi. F5 Distributed Cloud Customer Edge (CE) yang diterapkan di berbagai lokasi MinIO memfasilitasi mobilitas data yang mulus dan memecah silo data. Ini dilengkapi dengan layanan keamanan web dan API bawaan (F5 Distributed Cloud WAAP, yang mencakup firewall aplikasi web (WAF), manajemen bot, pencegahan DDoS, serta penemuan dan keamanan API), memastikan data dapat bergerak dengan aman, yang sangat penting untuk melindungi endpoint S3. Kemampuan ini sangat menguntungkan bagi organisasi yang ingin memanfaatkan kekuatan data terdistribusi tanpa mengorbankan keamanan. Membuka Jalan untuk AI dan Lingkungan Multicloud Seiring dengan semakin berkembangnya volume dan pentingnya data, solusi seperti yang ditawarkan oleh F5 dan MinIO akan sangat membantu organisasi dalam menghadapi kompleksitas manajemen data modern, sambil tetap mempertahankan keunggulan kompetitif. Kemitraan ini tidak hanya mengatasi tantangan manajemen data saat ini, tetapi juga membuka jalan bagi inovasi di masa depan dalam aplikasi AI dan lingkungan multicloud. Bisnis yang ingin meningkatkan kemampuan manajemen data mereka akan mendapat manfaat besar dari mengeksplorasi solusi yang ditawarkan oleh F5 dan MinIO.

Read More
19 December 202419 December 2024

AI Zero Days Sudah Hadir: Apa yang Perlu Diketahui oleh CISO

Untuk pertama kalinya, sistem penemuan kerentanan berbasis AI berhasil mengidentifikasi zero day pada perangkat lunak yang umum digunakan, menurut tim keamanan Google. Terobosan AI ini menyoroti pergeseran tak terelakkan menuju risiko—dan solusi—berbasis AI. Peneliti Google menggunakan model AI bernama Big Sleep untuk menemukan kerentanan keamanan memori, yaitu stack buffer underflow, pada mesin database SQLite. SQLite adalah salah satu mesin database yang paling banyak digunakan, tertanam di jutaan perangkat dan aplikasi. Sebagai perangkat lunak open source, SQLite memainkan peran penting dalam rantai pasokan perangkat lunak untuk alur data dan database. Big Sleep berhasil mengidentifikasi kerentanan stack buffer underflow kritis dalam kode SQLite—cacat yang tidak terdeteksi oleh metode konvensional. Bagi para CISO, implikasi ini sangat penting. AI dapat dan akan digunakan untuk mendeteksi zero day, baik oleh aktor baik maupun jahat. Keamanan akan bergerak lebih cepat, dan AI akan menjadi kebutuhan untuk mengimbanginya. Pada saat yang sama, memastikan kontrol keamanan inti sudah diterapkan dan disesuaikan akan menjadi semakin krusial. Momen ini menyoroti perlunya menghadapi ancaman berbasis AI dari dua sudut pandang: Menggunakan pertahanan berbasis AI untuk melawan evolusi cepat risiko keamanan. Memperkuat kerangka kerja keamanan yang sudah ada, serta memastikan kemampuan untuk berintegrasi dengan teknologi baru ini. Meningkatnya ancaman berbasis AI tidak hanya membutuhkan alat yang lebih cerdas, tetapi juga cakupan yang menyeluruh dan otomatisasi untuk meminimalkan kesalahan manusia. Lonjakan Zero-Day Berbasis AI yang Akan Datang Model bahasa besar (Large Language Models atau LLM) yang mampu menangani pengkodean dan analisis kode terus berkembang dengan pesat. Banyak dari model ini tersedia secara bebas, sering kali dalam domain open source. Para penyerang kini melihat peluang ini dan secara aktif memanfaatkan AI untuk mencari celah keamanan dalam sistem. CISO harus bersiap menghadapi lonjakan kerentanan zero-day yang ditemukan oleh AI karena beberapa faktor utama berikut: Kemampuan AI yang Meningkat Model AI modern, terutama LLM, telah menunjukkan kemampuannya menganalisis codebase yang kompleks untuk menemukan kerentanan yang sebelumnya tidak diketahui. Contohnya, Google menggunakan AI dalam Proyek Big Sleep untuk menemukan kerentanan zero-day yang tersebar luas, menyoroti potensi AI dalam langkah keamanan proaktif. Otomasi dan Efisiensi Alat berbasis AI dapat mengotomasi proses penemuan kerentanan, sehingga mempercepat identifikasi kelemahan keamanan secara signifikan. Efisiensi ini memungkinkan deteksi kerentanan dalam waktu yang jauh lebih singkat dibandingkan metode manual. Penggunaan AI oleh GreyNoise Intelligence untuk menemukan kerentanan zero-day pada kamera live-streaming adalah salah satu bukti kemampuan ini. Pemahaman Semantik yang Lebih Dalam Model AI mampu menganalisis kode dengan pemahaman konteks, tujuan, dan fungsionalitas yang lebih mendalam, sehingga dapat mengungkap kerentanan yang sering kali terlewatkan oleh metode tradisional. Dengan wawasan semantik ini, AI tidak hanya menemukan kesalahan kode yang jelas, tetapi juga kekurangan logika yang rumit, masalah konfigurasi, dan celah keamanan yang dapat dieksploitasi. Sebagai contoh, OpenAI Codex telah menunjukkan kemampuannya menemukan kelemahan keamanan yang halus dengan membandingkan perilaku program yang diharapkan dengan implementasinya yang sebenarnya. Tantangan Baru untuk Tim Keamanan Konvergensi kemajuan ini berarti tim keamanan harus bersiap menghadapi gelombang kerentanan zero-day yang ditemukan oleh AI. Untuk tetap unggul, organisasi perlu: Mengadopsi alat pertahanan berbasis AI untuk menghadapi ancaman yang berkembang. Meningkatkan kolaborasi antara tim pengembangan dan keamanan agar kerentanan dapat diatasi sejak dini. Mengedukasi staf secara berkelanjutan tentang ancaman berbasis AI yang muncul. Strategi proaktif sangat penting untuk mengurangi risiko yang ditimbulkan oleh era baru serangan siber berbasis AI ini. Langkah-langkah seperti menerapkan AI untuk melawan ancaman AI, memperkuat pendekatan zero trust, dan mengurangi area serangan (attack surface) akan menjadi kunci keberhasilan. Perlunya Pendekatan Defense in Depth yang Lebih Mendalam Bagi CISO, lanskap ancaman berbasis AI yang baru menyoroti pentingnya melindungi sebanyak mungkin permukaan serangan. Ini mencakup cakupan yang lebih luas terhadap kode, data konfigurasi, dan protokol, serta mendistribusikan mekanisme keamanan ke lebih banyak titik deteksi dalam siklus pengiriman aplikasi. Selain itu, diperlukan alat dan otomasi untuk mengurangi tugas manual. Sebagai contoh: F5 NGINX App Protect Solusi ini dapat memblokir banyak zero-day yang diidentifikasi AI dengan mencegah kelas perilaku yang bersifat anomali pada berbagai protokol, seperti HTTP/S, HTTP/2, gRPC, MQTT, dan WebSocket. Kemampuan NGINX App Protect untuk diterapkan di mana saja, termasuk bersamaan dengan produk NGINX lainnya dan dalam pipeline CI/CD, memberikan fleksibilitas yang kuat. NGINX One SaaS Console Konsol SaaS ini bertindak sebagai mesin rekomendasi konfigurasi otomatis. Dengan cepat, tim dapat menerapkan perubahan konfigurasi untuk memblokir zero-day pada seluruh armada NGINX, mencakup: NGINX Plus NGINX Open Source Produk Kubernetes Pilihan Azure-as-a-Service Dengan memanfaatkan solusi seperti NGINX App Protect dan NGINX One, organisasi dapat memperkuat pendekatan defense in depth mereka, melindungi aplikasi dari ancaman yang semakin kompleks di era AI ini. Memperluas Batasan Defense in Depth di Era Berbasis AI Zero-day berbasis AI bukan sekadar pergeseran lanskap ancaman—ini adalah gambaran masa depan dunia keamanan siber. Penemuan kerentanan oleh AI bukanlah kejadian satu kali; melainkan sinyal bahwa alat yang kita gunakan untuk melindungi diri harus berkembang seiring kecepatan alat yang digunakan untuk menyerang. Ancaman yang didorong oleh AI menandai titik balik yang memerlukan strategi pertahanan yang lebih luas dan mendalam. Saat penyerang memanfaatkan AI untuk menemukan dan mengeksploitasi kelemahan, CISO harus fokus pada pendekatan defense in depth yang mencakup lebih banyak aspek permukaan serangan. Ini berarti memperluas perlindungan ke lebih banyak protokol, basis kode, dan data konfigurasi, sekaligus menerapkan mekanisme keamanan di setiap tahap siklus hidup aplikasi. Ancaman berbasis AI tidak hanya membutuhkan alat yang lebih pintar; tetapi juga cakupan yang menyeluruh dan otomatisasi untuk meminimalkan kesalahan manusia. Di era baru ini, kelangsungan hidup organisasi bergantung pada penguatan setiap lapisan dan memastikan tidak ada kerentanan yang terlewatkan.

Read More
19 December 2024

F5 Membantu Anda Memenuhi Persyaratan Baru PCI DSS v4.0

Pada bulan Maret 2022, Payment Card Industry (PCI) Security Standards Council (SSC) merilis versi terbaru dari Data Security Standard, yaitu PCI DSS v4.0, yang secara resmi menggantikan PCI DSS v3.2.1 pada akhir Maret 2024. PCI DSS adalah standar global yang menetapkan persyaratan teknis dan operasional minimum bagi organisasi yang menyimpan, memproses, atau mentransmisikan data kartu pembayaran. PCI DSS v4.0 mewakili kemajuan besar dalam keamanan data kartu pembayaran dengan menawarkan fleksibilitas dan kontrol risiko yang lebih baik dibandingkan versi sebelumnya. Pembaruan pada standar ini (versi terbaru adalah PCI DSS v4.0.1) menyediakan praktik terbaik yang dapat diikuti oleh organisasi. Namun, dalam waktu sekitar 3 bulan lagi (setelah 31 Maret 2025), praktik terbaik dari PCI DSS v4.x ini akan berubah menjadi persyaratan wajib yang harus diterapkan pada setiap penilaian kepatuhan PCI DSS. PCI DSS v4.x menekankan pentingnya melindungi data sensitif pemegang kartu sepanjang siklus hidup pembayaran. Dengan mewajibkan enkripsi, baik saat data pemegang kartu sedang ditransmisikan maupun saat disimpan, standar ini menegaskan pentingnya perlindungan transaksi pembayaran dan data, serta memberikan pertahanan proaktif terhadap ancaman yang terus berkembang. PCI DSS dan WAF Pada PCI DSS v3.2.1, organisasi memiliki opsi untuk melindungi aplikasi web yang dapat diakses publik secara manual atau dengan menggunakan alat penilaian keamanan kerentanannya secara otomatis, setidaknya setahun sekali atau setelah perubahan signifikan pada aplikasi. Atau mereka dapat memilih untuk memasang solusi otomatis di depan aplikasi web yang dapat diakses publik untuk mendeteksi dan mencegah serangan berbasis web secara terus-menerus, yang dikonfigurasi untuk memblokir atau menghasilkan peringatan atas serangan. Namun, PCI DSS v4.x akan mewajibkan organisasi untuk memasang solusi di depan aplikasi web yang dapat diakses publik untuk mendeteksi, mencegah, dan menghasilkan peringatan atas serangan berbasis web secara terus-menerus (subbagian PCI DSS v4.0 6.4.2). Itulah yang dilakukan oleh web application firewall (WAF). WAF dipasang di depan aplikasi yang dapat diakses publik untuk memeriksa lalu lintas aplikasi, mendeteksi dan melindungi terhadap serangan berbasis web. WAF mencegah serangan lapisan aplikasi, termasuk serangan yang mungkin mengeksploitasi kerentanannya aplikasi yang umum dan tidak diketahui serta rantai pasokan perangkat lunaknya—kode inti, pustaka pihak ketiga, alat pembangun, dan kode lainnya yang membentuk aplikasi modern yang kompleks dan canggih. WAF juga melindungi terhadap serangan yang mencoba mengeksploitasi cacat implementasi atau konfigurasi serta serangan otomatis terhadap pembayaran, kredensial, dan aplikasi yang terpasang. Bagaimana F5 Dapat Membantu F5 mengamankan aplikasi dan API di mana saja. Solusi WAF kami dapat dipasang di depan aplikasi apa pun, terlepas dari di mana aplikasi tersebut berada. Apakah Anda membutuhkan WAF untuk melindungi aplikasi yang ada di tempat, di pusat data, atau di cloud, F5 memiliki solusi WAF yang akan memberikan keamanan lapisan aplikasi secara komprehensif dan perlindungan dari eksploitasi dan serangan. F5 WAF tersedia sebagai perangkat keras, perangkat lunak, atau di cloud melalui layanan mandiri atau dikelola, mengamankan aplikasi yang tercontainerisasi dan Kubernetes, dan lainnya. Produk F5 telah disertifikasi sebagai penyedia layanan PCI DSS Level 1. Penyedia layanan, seperti yang didefinisikan oleh PCI SSC, adalah organisasi yang tidak menyediakan kartu pembayaran bermerek atau bentuk lainnya, tetapi memproses, menyimpan, atau mentransmisikan data pemegang kartu atau data otentikasi sensitif untuk organisasi lain. Perusahaan yang memberikan layanan untuk mengontrol atau memengaruhi keamanan data pemegang kartu atau data otentikasi sensitif, seperti F5 melalui F5 Distributed Cloud Services, juga diklasifikasikan sebagai penyedia layanan PCI DSS v4.0. Fitur produk F5 membantu pelanggan kami memenuhi persyaratan PCI DSS sebagai pedagang, yang didefinisikan oleh PCI SSC sebagai entitas apa pun yang menerima kartu pembayaran yang memuat logo salah satu merek pembayaran yang berpartisipasi sebagai pembayaran untuk barang dan/atau layanan. F5 Distributed Cloud Services menyediakan berbagai layanan yang memenuhi banyak bagian dan subbagian dari standar PCI DSS v4.0 untuk organisasi yang menyimpan, memproses, atau mentransmisikan data kartu pembayaran. F5 Distributed Cloud WAF mengamankan aplikasi di mana saja—di seluruh cloud, pusat data, dan lokasi edge. Sebagai proxy perantara, Distributed Cloud WAF memeriksa permintaan dan respons aplikasi, memblokir dan mengurangi risiko, termasuk kategori OWASP Top 10, kampanye ancaman, pengguna berbahaya, ancaman DDoS lapisan 7, bot, dan serangan otomatis, dan lainnya. Ini mengurangi serangan dan kerentanannya aplikasi web melalui kontrol dan kebijakan keamanan yang komprehensif dan konsisten, dengan observabilitas yang mudah untuk dikonfigurasi, diterapkan, dikelola, dan diskalakan. F5 Distributed Cloud WAF mengintegrasikan perlindungan secara sederhana dan mulus ke dalam proses pengembangan aplikasi Anda, memungkinkan siklus pengiriman dan rilis aplikasi yang lebih cepat dan lebih aman. Dengan memanfaatkan teknik deteksi berbasis tanda tangan dan AI dengan penyetelan tanda tangan otomatis, F5 Distributed Cloud WAF memberikan keamanan lapisan aplikasi yang cepat dan sederhana dengan efektivitas maksimal. Asisten AI baru dalam Distributed Cloud Services membantu menyederhanakan keamanan untuk aplikasi dan API terdistribusi melalui antarmuka bahasa alami dengan wawasan waktu nyata, rekomendasi yang dapat ditindaklanjuti, dan ringkasan laporan data. F5 NGINX App Protect adalah WAF ringan dan berkinerja tinggi yang dirancang untuk melindungi API dan aplikasi modern di seluruh arsitektur terdistribusi dan lingkungan hybrid dengan perlindungan yang konsisten. Platform-agnostik, NGINX App Protect mengintegrasikan dengan mulus dalam proses pengembangan aplikasi Anda, mendeteksi dan mengamankan serangan aplikasi, termasuk serangan penolakan layanan (DoS) lapisan 7 dan bot. Sebagai solusi keamanan aplikasi yang kuat dan latensi rendah, NGINX App Protect memungkinkan Anda untuk mengukur keamanan aplikasi di klaster Kubernetes dan cloud, membantu mengurangi biaya komputasi secara signifikan. Ini memberikan pertahanan bertingkat, mengurangi kampanye serangan dunia maya aktif dan melampaui perlindungan kategori OWASP Top 10. F5 BIG-IP Advanced WAF adalah flagship web application firewall (WAF) F5. Deteksi dan mitigasi dalam BIG-IP Advanced WAF yang telah memenangkan penghargaan ini menjadi mesin untuk Distributed Cloud WAF dan NGINX App Protect. Dengan analitik perilaku, mitigasi DoS lapisan 7, enkripsi data sensitif lapisan aplikasi, dan layanan intelijen ancaman, BIG-IP Advanced WAF melindungi aplikasi di seluruh lingkungan terdistribusi dan hybrid dari berbagai serangan aplikasi. BIG-IP Advanced WAF menyediakan dasbor dinamis yang didedikasikan untuk memastikan keamanan dari ancaman yang tercantum dalam OWASP Top 10 dengan cepat dan sederhana. BIG-IP Advanced WAF mencakup konfigurasi panduan untuk kasus penggunaan WAF umum, mesin pembelajaran, dan memungkinkan penyesuaian kebijakan granular dari kebijakan keamanan. Perlindungan Ekstensif dari F5 Selain itu, F5 dapat menangani lebih banyak area yang relevan dengan standar PCI DSS v4.0. API adalah komponen…

Read More
19 December 2024

HackAI Challenge 2024: Mendefinisikan Ulang Inovasi dengan GenAI

Hackathon telah menjadi arena utama untuk kreativitas, pemecahan masalah, dan inovasi terdepan dalam dunia AI. HackAI—sebuah upaya kolaboratif yang diselenggarakan oleh Dell dan NVIDIA di Devpost—mengundang lebih dari 4.000 pengembang, ilmuwan data, dan penggemar AI untuk mendorong batasan dari apa yang mungkin dilakukan dengan teknologi Generative AI (GenAI). Inilah bagaimana acara ini berlangsung dan mengapa acara seperti ini sangat penting bagi kemajuan teknologi. Apa itu HackAI Challenge? HackAI Challenge mengumpulkan para inovator AI dari seluruh dunia, mendorong kolaborasi dan eksperimen. Diselenggarakan di Devpost, acara ini bukan sekadar kompetisi—melainkan wadah kreatifitas dan keahlian teknologi yang bertujuan untuk memecahkan masalah dunia nyata. Peserta menunjukkan keterampilan teknis dan kreativitas mereka sambil memperlihatkan bagaimana AI dapat mendorong perubahan yang berdampak di berbagai industri dan kehidupan sehari-hari. Lebih dari sekadar hackathon, HackAI menyoroti kebutuhan penting akan pengembangan lokal dan komputasi berkinerja tinggi untuk menghadapi tantangan yang muncul dalam proyek-proyek AI. Dengan memanfaatkan sumber daya seperti NVIDIA AI Workbench, peserta berpikir di luar batas konvensional, menciptakan solusi praktis yang mencerminkan potensi transformatif dari GenAI. Peran NVIDIA AI Workbench Di inti dari HackAI Challenge adalah NVIDIA AI Workbench—sebuah pengelola lingkungan pengembangan yang kuat dan ramah pengguna yang menyederhanakan proyek pembelajaran mesin, ilmu data, dan AI. Dengan fleksibilitasnya, peserta memiliki kebebasan untuk mengembangkan, memodelkan, dan menyesuaikan model di mana saja, baik itu di workstation Dell Precision lokal, pusat data, maupun di cloud. Fitur Utama NVIDIA AI Workbench: Kemudahan Penggunaan: Dapat diakses oleh pengembang pemula maupun berpengalaman. Fleksibilitas: Memungkinkan skala naik atau turun dengan mudah antara lingkungan lokal dan jarak jauh. Integrasi Tanpa Hambatan: Memungkinkan transfer lingkungan pengembangan dengan mudah antar platform. Efisiensi: Memungkinkan prototyping cepat dan kustomisasi model. NVIDIA AI Workbench menjadi tulang punggung untuk mewujudkan ide kreatif peserta sekaligus mengoptimalkan biaya dan skalabilitas.   Aplikasi Dunia Nyata dan Dampaknya Proyek-proyek yang muncul dari HackAI menunjukkan potensi AI yang dapat mengubah hidup di berbagai bidang seperti kesehatan, pendidikan, keamanan, dan hiburan. Berikut adalah tiga solusi unggulan yang menyoroti aplikasi GenAI yang serbaguna: RAGIS (Retrieval-Augmented Generation Incident Summary) RAGIS merevolusi analisis insiden bagi tim keamanan. Dengan mengintegrasikan Generative AI dengan data perusahaan seperti Microsoft Entra ID dan insiden yang sebelumnya ditutup, alat ini membantu analis dengan cepat mengidentifikasi positif palsu dan memprioritaskan ancaman nyata. Kerangka kerja canggihnya memanfaatkan: Lang Chain untuk membangun analis RAG. Gradio untuk antarmuka penggunanya. NVIDIA NIM dan NVIDIA AI Workbench untuk orkestrasi model dan pengembangan yang mulus. Pendekatan yang disederhanakan ini secara signifikan mengurangi gangguan dari peringatan palsu, memungkinkan tim keamanan bekerja lebih efisien. Txt2App Txt2App menyederhanakan pengembangan aplikasi mobile dengan memanfaatkan Large Language Models (LLMs) dan NVIDIA AI Workbench. Pengguna dapat menggambarkan ide aplikasi mereka dalam teks biasa, dan platform ini mengubahnya menjadi aplikasi mobile yang sepenuhnya fungsional. Dengan mengotomatiskan pengkodean dan desain UI/UX, Txt2App menurunkan hambatan untuk pengembangan aplikasi, memungkinkan individu tanpa keahlian teknis mewujudkan ide mereka. CaptionCraft CaptionCraft meningkatkan keterlibatan media sosial dengan mengotomatiskan pembuatan caption. Pengguna mengunggah foto, dan alat ini, yang didukung oleh teknologi seperti model blip-image-captioning-base dari Salesforce dan Mistral NeMo 12B, menghasilkan caption yang disesuaikan. Alat ini bahkan memungkinkan personalisasi berdasarkan kata kunci atau nada, memastikan caption sesuai dengan audiens tertentu. Dibangun dengan NVIDIA AI Workbench, CaptionCraft sangat cocok bagi pembuat konten yang mencari efisiensi dan kreativitas. Inovasi GenAI di Garis Depan HackAI merupakan bukti dari kemungkinan tak terbatas yang ditawarkan oleh Generative AI. Proyek-proyeknya tidak hanya memenuhi kebutuhan dunia nyata tetapi juga menunjukkan skalabilitas dan potensi teknologi ini untuk memberikan dampak global. Dari menyederhanakan alur kerja hingga memungkinkan aplikasi baru yang sepenuhnya inovatif, inovasi semacam ini membuka jalan menuju masa depan yang lebih cerah dan dipenuhi oleh AI. Lihat proyek-proyek lainnya dari HackAI di sini. Ambil Langkah Berikutnya dengan Dell Precision dan Alat NVIDIA Terobosan yang terjadi di HackAI menyoroti betapa mudahnya inovasi AI kini diakses. Baik Anda seorang pengembang berpengalaman atau penggemar AI yang ingin mengeksplorasi GenAI, alat seperti workstation Dell Precision AI dan NVIDIA AI Workbench memungkinkan Anda untuk melakukan prototyping, berkolaborasi, dan berkembang secara efektif. Ingin memulai perjalanan AI Anda? Unduh eBook kami hari ini untuk mengeksplorasi bagaimana Anda dapat menyesuaikan dan mengembangkan model GenAI secara lokal dengan Dell dan NVIDIA. Dengan membangun proyek menggunakan alat yang tepat, Anda pun bisa membentuk gelombang inovasi AI berikutnya.

Read More
  • Previous
  • 1
  • …
  • 11
  • 12
  • 13
  • 14
  • 15
  • Next

Recent Posts

  • F5 mempercepat penerapan keamanan AI perusahaan dengan operator Red Hat OpenShift tersertifikasi dan AI Quickstarts
  • Tren AI & Keamanan
  • Kamu tidak bisa mem-firewall sebuah percakapan: Mengapa AI red-teaming menjadi sangat penting (mission-critical)
  • F5 Distributed Cloud CDN: Aplikasi Lebih Cepat, Aktifkan Sekali Klik, Biaya Lebih Rendah
  • Kerentanan Kritis pada F5 BIG-IP Berisiko Dieksploitasi Secara Luas

Archives

  • May 2026
  • April 2026
  • March 2026
  • February 2026
  • January 2026
  • December 2025
  • November 2025
  • October 2025
  • September 2025
  • August 2025
  • July 2025
  • June 2025
  • May 2025
  • April 2025
  • March 2025
  • February 2025
  • January 2025
  • December 2024
  • November 2024
  • September 2024
  • August 2024
  • July 2024
  • June 2024

Categories

  • Blog
  • Tak Berkategori

Meta

  • Log in
  • Entries feed
  • Comments feed
  • WordPress.org

F5 Indonesia adalah bagian dari PT. iLogo Infralogy Indonesia, yang bertindak sebagai partner resmi F5. Selain itu, kami juga berperan sebagai penyedia layanan (vendor) sekaligus distributor berbagai produk Infrastruktur IT dan Cybersecurity terbaik di Indonesia.

Kontak Kami

PT iLogo Indonesia

AKR Tower – 9th Floor
Jl. Panjang no. 5, Kebon Jeruk
Jakarta Barat 11530 – Indonesia

  • f5@ilogoindonesia.id