Perusahaan masa kini berjuang dengan kompleksitas yang belum pernah terjadi sebelumnya dalam menavigasi lanskap TI hybrid dan multicloud yang sangat rumit—dengan ratusan aplikasi dan API yang didistribusikan di berbagai lingkungan. Dan dengan aplikasi yang digerakkan oleh AI yang semakin menjadi elemen penting dari infrastruktur yang terdistribusi dan modern, kompleksitas ini hanya akan semakin meningkat. Di F5, kami menyebutnya “Ball of Fire.” Dan saat Ball of Fire terus berkembang di setiap organisasi, silo operasional meningkat, kelincahan menurun, dan kecepatan menuju pasar melambat. Permukaan ancaman berkembang, meninggalkan perusahaan rentan terhadap semakin banyak serangan siber yang digerakkan oleh AI. Pada saat yang sama, organisasi terpaksa menyatukan solusi titik dari berbagai vendor, yang mengarah pada kebijakan yang tidak konsisten dan kesenjangan dalam visibilitas dan manajemen yang memperburuk risiko keamanan. Jelas, pendekatan baru diperlukan untuk keluar dari siklus krisis industri yang ada. Kami percaya jawabannya terletak pada generasi baru dari Application Delivery Controllers (ADC) yang fokus pada membantu perusahaan mengatasi tantangan yang sangat kompleks. Evolusi berikutnya dari ADC ini mewakili pergeseran mendasar dalam cara perusahaan mendekati pengiriman aplikasi dan keamanan. Peran Sentral ADC Mungkin Anda berpikir: “ADC? Bukankah kita sudah berhenti membicarakan ADC bertahun-tahun yang lalu?” Beberapa bagian dari industri memang berhenti membicarakan ADC, namun kematiannya sebagian besar dilebih-lebihkan. Fakta yang tetap ada adalah bahwa ADC memainkan peran sentral dalam kinerja aplikasi, ketersediaan, dan keamanan. Mereka bertindak sebagai penjaga gerbang, memastikan aplikasi disampaikan kepada pengguna dengan efisien dan aman, tanpa memandang di mana mereka diterapkan—baik di tempat, di berbagai cloud, atau di lingkungan edge yang jauh. Dengan munculnya API, microservices, dan beban kerja berbasis AI, ADC menjadi lebih penting dari sebelumnya. Penerapan beban kerja modern yang digerakkan oleh AI memerlukan solusi yang mendukung manajemen lalu lintas cerdas, memberikan keamanan yang kuat, dan menawarkan manajemen terpadu di seluruh lingkungan. Kami percaya ADC adalah teknologi yang tepat untuk mencapai ini. Membayangkan Ulang ADC untuk Lanskap yang Berubah Evolusi ADC mewakili lompatan signifikan dalam pengiriman aplikasi dan keamanan melalui tiga era yang berbeda. Ketika generasi pertama ADC, ADC 1.0, muncul pada masa ledakan dotcom—mereka dibangun untuk infrastruktur pusat data on-premise guna mendukung aplikasi monolitik dan tiga tingkat dengan komponen keamanan yang berfokus pada perlindungan WAF dan DDoS. Ini terutama perangkat keras dan perangkat virtual yang digunakan untuk penyeimbangan beban, caching konten, dan keamanan aplikasi web—F5 tumbuh menjadi pemimpin pasar dalam hal ini, membantu perusahaan besar mengembangkan layanan digital mereka untuk era web. Kemunculan komputasi awan pada tahun 2010-an mengharuskan ADC untuk mencocokkan skala cloud dengan kelincahan, skalabilitas, dan efektivitas biaya yang lebih besar. Ini melahirkan ADC sebagai Layanan, yang memperluas kemampuan ADC untuk mengatasi tantangan pelanggan dalam transformasi cloud. Era ADC ini menjadikan perangkat keras fisik di pusat data on-premise menjadi kurang menarik karena sifat terdistribusi dari cloud yang memerlukan visibilitas, skala, dan konsistensi. Aplikasi melakukan pergeseran serupa, dengan munculnya microservices dan containerization yang memberikan fleksibilitas dan pemeliharaan aplikasi berbasis cloud yang lebih mudah. Munculnya ancaman baru, terutama terhadap semakin banyaknya API, menciptakan kebutuhan untuk kemampuan keamanan tambahan seperti keamanan API, pertahanan bot, dan mitigasi DDoS. Saat era cloud berjalan, umumnya diasumsikan bahwa setiap aplikasi akan ada di cloud. Banyak yang percaya bahwa hybrid bersifat sementara. Mereka percaya cloud akan lebih cepat, lebih murah, dan lebih aman, serta akan menjadi beban yang lebih ringan bagi tim TI yang membutuhkan kelincahan bisnis yang lebih besar. Namun, tentu saja, prediksi tersebut terbukti salah di berbagai level. Aplikasi masa kini dibangun dengan berbagai arsitektur dan berada di berbagai lingkungan, termasuk beberapa cloud, SaaS, lokasi edge, dan pusat data perusahaan. Seiring dengan janji AI yang akan meningkatkan kompleksitas infrastruktur hybrid dan multicloud saat ini, kita harus sekali lagi membayangkan ulang visi kolektif kita untuk memenuhi kebutuhan lanskap digital yang terus berubah. Jawaban untuk Kompleksitas yang Digiring AI Era AI telah memperkenalkan tantangan baru dalam pengiriman aplikasi dan keamanan. Infrastruktur bersifat hybrid dan multicloud secara desain untuk memenuhi tuntutan aplikasi AI yang terdistribusi secara alami. Aplikasi AI yang terdistribusi ini memberikan tekanan besar pada sumber daya infrastruktur karena sejumlah besar data harus dipindahkan dan diamankan di seluruh lingkungan. Selain itu, keamanan berbasis AI kini menjadi kebutuhan untuk mengatasi lanskap ancaman baru yang digerakkan oleh ledakan API ditambah dengan ancaman berbasis AI yang lebih canggih. Evolusi berikutnya dari ADC menawarkan lebih dari sekadar penyeimbangan beban di masa lalu. ADC 3.0 mengatasi titik nyeri kritis di lingkungan TI pada era AI: kompleksitas, inkonsistensi, kaku, dan kurangnya visibilitas. Ini menggabungkan penyeimbangan beban berkinerja tinggi dan pengiriman aplikasi dengan kemampuan canggih untuk keamanan aplikasi web dan API untuk membayangkan ulang apa yang bisa—dan harus—menjadi ADC. Ada enam properti dasar yang mendefinisikan ADC baru ini dan bagaimana mereka akan mengatasi tantangan TI perusahaan yang paling mendesak: Pengiriman dan keamanan lengkap untuk setiap aplikasi dalam satu platform yang menyederhanakan manajemen bagi tim TI dan keamanan. Dapat diterapkan dalam bentuk apa pun untuk berjalan mulus di seluruh lingkungan TI yang beragam saat ini. Kebijakan tunggal, manajemen terpadu di seluruh lokasi untuk mengurangi kompleksitas dan meningkatkan efisiensi. Analitik dan wawasan yang kaya yang relevan dan dapat ditindaklanjuti untuk meningkatkan kinerja dan memperkuat keamanan aplikasi yang kompleks saat ini. Data plane yang sepenuhnya dapat diprogram yang memungkinkan penerapan otomatis dan fungsionalitas kustom agar organisasi dapat beradaptasi dengan kebutuhan yang berubah. Otomatisasi siklus hidup penuh yang memungkinkan tim fokus pada pengiriman inovasi dan berhenti tenggelam dalam tugas pemeliharaan. Membantu Pelanggan Berkembang di Era ADC 3.0 Berkat kombinasi unik dari perangkat keras, perangkat lunak, dan penawaran SaaS kami, F5 adalah satu-satunya vendor yang melayani setiap aplikasi dan API di seluruh lingkungan hybrid dan multicloud. Itu termasuk aplikasi modern dan warisan yang diterapkan di mana saja—dari pusat data perusahaan hingga beberapa cloud hingga lingkungan edge yang jauh. Sebagai pemimpin konsisten di kategori ini selama 25 tahun terakhir, F5 berada dalam posisi yang unik untuk membantu pelanggan menghadapi tantangan era ADC 3.0. Kami terus membangun keahlian ini untuk membantu perusahaan mewujudkan perjalanan dan ambisi AI mereka. Kami bermitra dengan perusahaan-perusahaan seperti NVIDIA dan NetApp untuk memberikan alat yang dibutuhkan tim TI untuk menerapkan dan menskalakan pabrik dan infrastruktur AI mereka. Kami…
Category: Blog
Menciptakan Ulang ADC untuk Memenuhi Permintaan Infrastruktur Aplikasi yang Berkembang
Pengiriman aplikasi telah berkembang pesat dalam tiga dekade terakhir. Seiring dengan perkembangan komputasi perusahaan, organisasi didorong oleh kebutuhan akan lebih banyak—lebih banyak aplikasi, lebih banyak dukungan infrastruktur, lebih banyak ketersediaan, lebih banyak fleksibilitas. Namun, semua “lebih banyak” ini datang dengan harga yang harus dibayar. Saat infrastruktur terus berkembang untuk memberikan “lebih banyak” yang diminta bisnis, infrastruktur tersebut menjadi sangat kompleks. Hal ini, pada gilirannya, telah memperkenalkan risiko baru, yang menantang kemampuan organisasi untuk beroperasi dengan kecepatan yang diperlukan untuk menghadirkan pengalaman digital inovatif yang diminta oleh pelanggan mereka. Saat kita memasuki era AI, infrastruktur aplikasi pendukung terus berkembang dalam ukuran dan kompleksitas, seperti kebutuhan untuk mendukung aplikasi berbasis AI dan mengembangkan pabrik AI. Untuk mencapai layanan kritis yang diperlukan untuk mengamankan dan menerapkan aplikasi terdistribusi ini, penyederhanaan adalah hal yang sangat penting. Secara singkat, itulah yang disediakan F5. Sejak pembentukan F5 hampir 30 tahun yang lalu, kami telah menjadi pemimpin pasar dalam pengendali pengiriman aplikasi (ADC). Selama bertahun-tahun, kami terus menciptakan ulang ADC untuk memenuhi kebutuhan infrastruktur aplikasi yang mendasarinya seiring dengan perkembangannya. Dan saat AI kembali mengubah lanskap yang mendasarinya, F5 terus berinovasi untuk memenuhi tuntutan saat ini dengan menyederhanakan yang kompleks bagi pelanggan kami. Dalam beberapa minggu mendatang, kami akan menjelajahi evolusi ADC untuk memenuhi perubahan infrastruktur, aplikasi, dan lanskap keamanan. Posting blog pertama dalam seri ini membahas bagaimana ADC telah beradaptasi dengan infrastruktur aplikasi yang berkembang. Jadi, bagaimana evolusi ini terlihat selama tiga dekade terakhir? Infrastruktur 1.0: Pusat Data On-premise pada Tahun 1990-an Pada masa awal komputasi perusahaan, infrastruktur on-premise adalah hal yang biasa. Bisnis menjalankan aplikasi, data, dan sistem mereka pada server fisik dan perangkat keras yang disimpan di ruang server dalam gedung mereka sendiri—melayani pengguna yang duduk di meja di dalam dinding perusahaan yang sama. Pusat data on-premise ini memerlukan investasi perangkat keras dan perangkat lunak yang cukup besar. Mereka juga memerlukan tim TI yang terampil untuk memelihara pusat data ini, sambil mengelola pembaruan keamanan dan perangkat lunak. Pusat data on-premise ini memberikan kontrol penuh atas data dan sistem. Dengan infrastruktur yang ditempatkan di lokasi sentral, mengamankan aplikasi relatif sederhana, sebuah keuntungan bagi perusahaan yang menghadapi persyaratan kepatuhan dan keamanan yang ketat. Namun, membangun dan memelihara pusat data sangat mahal, dan kemampuan untuk melakukan skalabilitas terbatas. Selain itu, ekspansi ke lokasi geografis baru berarti membangun pusat data baru, yang mahal dan kompleks secara operasional. Pengendali pengiriman aplikasi pertama kali muncul pada era ini dalam bentuk perangkat keras atau perangkat virtual yang membantu tim TI mengelola kebutuhan pengiriman aplikasi mereka, seperti penyeimbangan beban. F5 dengan cepat membuktikan diri sebagai pemimpin pasar dalam ADC perangkat keras, dan akhirnya memperkenalkan ADC on-demand pertama yang mendefinisikan ulang kinerja dan skalabilitas. Infrastruktur 2.0: Gangguan Cloud pada Tahun 2000-an Kehadiran komputasi awan mengubah lanskap infrastruktur aplikasi secara fundamental. Sumber daya komputasi dipindahkan dari empat dinding perusahaan ke peternakan server besar yang dikelola oleh perusahaan pihak ketiga. Penyedia layanan cloud seperti Microsoft Azure, Amazon Web Services (AWS), dan Google Cloud Platform (GCP) mulai menawarkan sumber daya komputasi dengan model bayar sesuai pemakaian—memberikan fleksibilitas untuk mengakses sumber daya komputasi sesuai permintaan. Era cloud membawa manfaat luar biasa bagi organisasi. Ini menghilangkan kebutuhan untuk membangun pusat data baru yang memerlukan pembelian perangkat keras mahal dan biaya pemeliharaannya, sambil memungkinkan untuk membayar hanya untuk sumber daya yang benar-benar digunakan. Cloud mempermudah untuk menyebarkan aplikasi, sambil memudahkan untuk menskalakan naik dan turun saat kebutuhan komputasi berubah. Selain itu, ini memberikan akses ke jaringan pusat data global, membantu perusahaan memperluas jangkauan global mereka. Kehadiran komputasi awan melahirkan era kedua dari ADC, yang beralih dari perangkat keras ke ADC sebagai layanan—memberikan pelanggan skalabilitas yang lebih baik, keamanan aplikasi, dan manajemen kebijakan yang konsisten. Di sini, sekali lagi, F5 melanjutkan posisinya sebagai pemimpin pasar ADC, memenuhi kebutuhan era cloud dengan menyesuaikan layanan kami dengan cloud publik. Infrastruktur 3.0: Dunia Hybrid dan Multicloud Saat Ini Meskipun dulunya diperkirakan bahwa satu cloud akan mendominasi masa depan, kenyataannya tidak demikian. Organisasi sekarang mendistribusikan aplikasi dan API mereka ke lebih banyak lingkungan daripada sebelumnya. Beberapa menjalankan aplikasi mereka di beberapa cloud untuk menghindari kunci vendor dan mengoptimalkan biaya dengan memanfaatkan layanan terbaik dari berbagai penyedia. Lainnya mengelola aplikasi mereka di lanskap hybrid yang menggabungkan pusat data on-premise, beberapa cloud publik, dan lingkungan edge. Bahkan, riset F5 menunjukkan bahwa 88% organisasi beroperasi dalam model penerapan hybrid, sementara lebih dari sepertiga (38%) menjalankan aplikasi yang diterapkan dalam enam model yang berbeda. Hybrid dan multicloud telah menjadi hal yang biasa karena fleksibilitas luar biasa yang ditawarkannya untuk memilih lingkungan terbaik untuk setiap aplikasi atau beban kerja. Namun, ini juga menciptakan situasi yang tidak berkelanjutan dalam hal efisiensi dan keamanan. Seiring dengan berkembangnya era AI, infrastruktur yang mendasari akan menjadi semakin terdistribusi karena beban kerja AI ditempatkan sedekat mungkin dengan data yang mereka perlukan. Untuk memenuhi kebutuhan ini, ADC harus sekali lagi menciptakan ulang dirinya. ADC 3.0 memerlukan pendekatan platform tunggal untuk keamanan dan pengiriman aplikasi—yang memungkinkan organisasi untuk memanfaatkan fleksibilitas lingkungan hybrid dan multicloud tanpa terhambat oleh kompleksitas. Dikatakan bahwa kesederhanaan adalah kompleksitas yang terpecahkan. Dengan membantu organisasi mengamankan, mengirimkan, dan mengoptimalkan setiap aplikasi dan API di seluruh lingkungan hybrid dan multicloud mereka, ADC 3.0 menjanjikan untuk menyelesaikan yang kompleks—memberikan kesederhanaan vital yang dibutuhkan untuk berkembang di era AI.
Empat Alasan untuk Tidak Melewatkan AppWorld 2025
AppWorld 2025, konferensi utama kami tentang keamanan aplikasi dan pengiriman, hanya tinggal tiga minggu lagi, dan kami sangat antusias dengan berbagai sesi yang telah kami rencanakan tahun ini untuk membantu peserta menyederhanakan cara mereka mengamankan dan mengirim aplikasi di era AI. Peserta yang hadir akan mendapatkan tiga hari penuh dengan pidato utama, sesi interaktif, dan lab langsung untuk memperdalam keahlian mereka serta mempersiapkan diri untuk tahun yang akan datang. Berikut adalah empat alasan mengapa Anda tidak ingin melewatkan acara unggulan tahun ini: 1. Mendengarkan pemimpin utama F5 tentang bagaimana mempersiapkan diri untuk masa depan yang didorong oleh AI AppWorld tahun ini akan mencakup beberapa pidato utama dari pemimpin-pemimpin utama F5 yang bertujuan untuk membantu organisasi mempersiapkan infrastruktur mereka menghadapi volume data yang semakin besar dan ancaman keamanan yang semakin canggih di dunia aplikasi AI. Dalam pidato utama pembukaan, “Era Baru Pengiriman Aplikasi: Bagaimana F5 Memungkinkan Aplikasi AI,” CEO F5, François Locoh-Donou, akan mengeksplorasi evolusi teknologi pengiriman dan keamanan aplikasi, serta bagaimana hal itu dibayangkan kembali untuk aplikasi AI yang semakin tersebar saat ini. Selain itu, Chief Innovation Officer kami, Kunal Anand, akan membahas “Peta Jalan F5 untuk Membuka Masa Depan yang Didukung AI”—merinci visi F5 untuk membantu pelanggan mereka memposisikan diri menghadapi tantangan masa kini dan dunia yang didorong oleh AI di masa depan. Pidato utama lainnya akan fokus pada “Mengungkap Ancaman yang Semakin Besar terhadap Domain Digital Anda,” “Mempersiapkan Diri untuk Peluang dan Tantangan dalam AI Perusahaan,” dan “Memodernisasi Pengiriman Aplikasi untuk Era Baru.” 2. Memperluas pengetahuan Anda tentang solusi keamanan dan pengiriman aplikasi inovatif dari F5 Peserta akan memiliki kesempatan untuk mengikuti berbagai sesi breakout yang dirancang untuk meningkatkan keahlian mereka ke tingkat berikutnya. Dari menemukan dan mengamankan API hingga mengotomatisasi pengiriman aplikasi serta meningkatkan keamanan aplikasi AI—sesi-sesi yang berfokus pada solusi ini bertujuan untuk membantu organisasi menyelesaikan masalah yang mereka hadapi setiap hari. 3. Mendapatkan pembelajaran teknis langsung melalui F5 Academy Selalu menjadi daya tarik di AppWorld, F5 Academy tahun ini menyajikan berbagai pengarahan teknis dan lab langsung. Peserta akan memiliki kesempatan untuk memperdalam pengetahuan mereka tentang produk F5 BIG-IP, F5 NGINX, dan F5 Distributed Cloud yang telah meraih penghargaan—berinteraksi dengan para ahli teknis F5 saat mereka mengeksplorasi kemampuan teknis terbaru. Mereka yang menyelesaikan lab akan mendapatkan lencana yang memvalidasi keahlian mereka. Peserta juga dapat mengikuti ujian sertifikasi saat berada di AppWorld, memajukan karier mereka dengan menjadi bersertifikat secara resmi pada produk-produk F5. 4. Mendapatkan inspirasi dan semangat yang dapat mengantar Anda sepanjang tahun Konferensi tahun ini menghadirkan pidato utama dari Kapten Scott Kelly, mantan astronaut NASA dan Kapten Angkatan Laut yang telah pensiun. Berdasarkan pengalamannya sebagai veteran dari empat penerbangan luar angkasa, Kapten Kelly akan berbagi wawasan tentang kerja tim, ketahanan, mengatasi kesulitan, dan bekerja bersama untuk membangun dunia yang lebih baik. Peserta juga akan memiliki kesempatan untuk bertemu satu-satu dengan arsitek solusi F5, memberikan umpan balik, dan membentuk masa depan produk F5. Mereka juga akan memiliki kesempatan untuk membangun jaringan dengan komunitas global arsitek, insinyur, dan pemimpin pemikiran industri selama acara tiga hari ini—dari resepsi pembukaan hingga pesta penutupanTop of Form
Bagaimana Bot Menyerang Model Bahasa Besar: Top 10 OWASP LLM
Bot dan AI sudah lama terhubung erat. Tes CAPTCHA pertama yang diciptakan untuk menghalangi bot dirancang sebagai masalah yang mudah diselesaikan oleh manusia tetapi sulit bagi AI—sebuah perbedaan yang kembali mengacu pada publikasi Alan Turing pada tahun 1950 tentang kecerdasan komputer. Baru-baru ini, perusahaan keamanan, termasuk F5, telah menerapkan AI untuk mendeteksi bot, sebagaimana pembuat bot menggunakan AI untuk menghindari deteksi dan menyelesaikan tantangan CAPTCHA. Dengan adanya AI generatif, hubungan antara bot dan AI terus berkembang, dengan bot yang mengambil konten dari Internet untuk memberi makan model bahasa besar (LLM) dan agen AI—yang pada dasarnya adalah bot cerdas—berinteraksi dengan aplikasi dengan cara yang tidak diinginkan. Kita juga melihat hubungan erat antara bot dan AI ketika kita mempertimbangkan 10 Risiko & Mitigasi Teratas untuk LLM dan Aplikasi Gen AI pada tahun 2025. Pihak yang tidak diinginkan hampir selalu menggunakan bot dalam berbagai bentuk untuk memperbesar serangan dunia maya terhadap LLM, sehingga mitigasi bot menghilangkan alat penting dari tangan para pelaku kejahatan dunia maya. Bot memang bukan satu-satunya cara untuk mengeksploitasi kerentanannya LLM. Keamanan LLM adalah bidang yang kompleks dan terus berkembang dalam dunia keamanan siber, dan saya tidak ingin menyederhanakan tantangan ini dengan menyebutkan satu penyebab atau solusi tunggal. Namun, kita tahu bahwa pihak yang tidak diinginkan hampir selalu menggunakan bot dalam berbagai bentuk untuk memperbesar serangan dunia maya, dan karena itu mitigasi bot menghilangkan alat penting dari gudang senjata para pelaku kejahatan dunia maya. Untuk memahami mengapa mitigasi bot sangat relevan dengan keamanan LLM seperti halnya untuk keamanan web, seluler, dan API, mari kita tinjau 10 risiko keamanan OWASP untuk LLM pada tahun 2025 dan pertimbangkan bagaimana pihak yang tidak diinginkan bisa menggunakan bot untuk mengeksploitasi setiap kerentanannya. Prompt Injection Serangan prompt injection berusaha mengubah perilaku LLM dengan cara yang merugikan, yang menurut OWASP, dapat menyebabkan model “melanggar pedoman, menghasilkan konten berbahaya, memungkinkan akses tidak sah, atau memengaruhi keputusan kritis.” Untuk memengaruhi perilaku model melalui prompt, pihak yang tidak diinginkan mungkin perlu menyuntikkan banyak prompt—memasukkan banyak prompt berbahaya ke model untuk memaksimalkan kerusakan atau menemukan prompt yang mencapai hasil yang diinginkan. Untuk memasukkan cukup banyak prompt berbahaya, pihak yang tidak diinginkan akan memerlukan bot untuk otomatisasi. Pengungkapan Informasi Sensitif Dalam upaya membangun LLM yang memberikan nilai bisnis kepada karyawan dan pelanggan, organisasi akan melatih model pada data besar yang merupakan milik organisasi. Namun, data ini mungkin mengandung informasi sensitif, termasuk data pribadi dan rahasia dagang. Pihak yang tidak diinginkan hampir pasti akan mencoba mengakses model ini untuk mengungkapkan data sensitif tersebut. Karena pihak yang tidak diinginkan mungkin tidak tahu persis data apa yang mereka cari atau bagaimana memintanya, mereka mungkin menggunakan pendekatan brute force, mengeluarkan banyak prompt dengan harapan satu di antaranya mengungkapkan informasi sensitif yang berharga. Untuk menjalankan banyak prompt terhadap model, pihak yang tidak diinginkan yang ingin memperbesar serangannya akan menggunakan bot. Rantai Pasokan Seperti sistem informasi lainnya, LLM memiliki ketergantungan, termasuk data pelatihan, model dasar, dan platform penyebaran, yang berarti pihak yang tidak diinginkan dapat mengkompromikan LLM dengan merusak rantai pasokannya. Untuk mengkompromikan ketergantungan tersebut, pihak yang tidak diinginkan kemungkinan akan menggunakan bot untuk memanipulasi penyimpanan data dengan informasi palsu, membobol sistem otentikasi dengan pengisian kredensial atau proxy phishing waktu nyata, dan mencari kerentanannya otorisasi. Pencemaran Data dan Model Dalam data poisoning, pihak yang tidak diinginkan memanipulasi data pelatihan, penyempurnaan, atau data penyematan untuk memperkenalkan kerentanannya, pintu belakang, atau bias. Menurut OWASP, “manipulasi ini dapat merusak keamanan model, kinerja, atau perilaku etis, yang mengarah pada hasil berbahaya atau kemampuan yang terpengaruh.” Meskipun ada banyak metode yang dapat digunakan pihak yang tidak diinginkan untuk memanipulasi data, bot adalah alat umum dalam berbagai jenis serangan, dari merusak otentikasi atau otorisasi hingga menyisipkan data palsu ke dalam penyimpanan data melalui aplikasi yang tidak memiliki perlindungan bot. Penanganan Output yang Tidak Tepat Penanganan output yang tidak tepat mengacu pada kegagalan untuk memeriksa apakah output dari model LLM dapat merusak sistem yang bergantung pada output tersebut. Sementara kerentanannya rantai pasokan dan pencemaran data serta model mengacu pada kompromi terhadap sistem hulu dari model LLM, penanganan output yang tidak tepat berdampak pada sistem hilir; yaitu, sistem yang bergantung pada output dari model LLM. Menurut OWASP, “eksploitasi yang berhasil dari kerentanan penanganan output yang tidak tepat dapat mengarah pada cross-site scripting (XSS) dan cross-site request forgery (CSRF) pada peramban web serta server-side request forgery (SSRF), eskalasi hak istimewa, atau eksekusi kode jarak jauh pada sistem backend.” Melihat ini dengan cara lain, pihak yang tidak diinginkan menggunakan LLM untuk menyerang aplikasi lain yang bergantung pada output LLM. Meskipun penyerang dapat mengeksploitasi kerentanannya ini melalui input yang dirancang dengan hati-hati untuk aplikasi, penyerang mungkin mencoba untuk memperbesar serangan tersebut melalui otomatisasi, mencoba berbagai variasi untuk menemukan input yang menghasilkan output yang merusak aplikasi hilir. Otomatisasi akan mencoba memaksa output berbahaya dari model dan menguji apakah output tersebut memiliki dampak buruk yang diinginkan pada aplikasi. Untuk memperbesar pencarian ini, bot diperlukan. Agensi Berlebihan Agensi berlebihan adalah bentuk eskalasi hak istimewa yang dilakukan melalui sistem berbasis LLM. Kerentanannya berasal dari sistem berbasis LLM yang berjalan dengan hak istimewa yang lebih tinggi, memungkinkan sistem tersebut untuk memanggil fungsi atau berinteraksi dengan sistem lain. Pihak yang tidak diinginkan, yang tidak tahu di mana sistem berbasis LLM telah meningkatkan hak istimewa atau bagaimana mengeksploitasi eskalasi tersebut, kemungkinan besar akan menggunakan otomatisasi untuk memasukkan beberapa prompt, berharap untuk memicu dan mengeksploitasi eskalasi hak istimewa. Kebocoran Prompt Sistem Aplikasi yang dibangun dengan LLM sering memberikan instruksi prompt sistem kepada LLM untuk membimbing perilaku model agar memenuhi persyaratan aplikasi. Dalam praktiknya, prompt sistem ini dapat berisi rahasia: string koneksi ke database, kode milik, properti intelektual, atau konten lain yang harus dijaga kerahasiaannya oleh perusahaan. Kebocoran prompt sistem, kemudian, adalah bentuk khusus dari prompt injection yang memicu aplikasi untuk secara tidak sengaja mengungkapkan instruksi sistemnya. Menjadikan LLM untuk mengungkapkan rahasia ini melalui prompt bukanlah hal yang sederhana, dan hampir pasti pihak yang tidak diinginkan akan mengembangkan skrip otomatis untuk lebih efektif mencari data sensitif yang tertanam dalam prompt sistem. Kelemahan Vektor dan Penyematan Aplikasi LLM sering meningkatkan…
F5 Mempercepat Pengiriman Aplikasi AI untuk Penyedia Layanan dan Perusahaan dengan NVIDIA BlueField-3 DPU
F5 BIG-IP Next for Kubernetes, proxy cerdas baru dari F5, yang dipadukan dengan NVIDIA BlueField-3 DPU, mengubah pengiriman aplikasi untuk beban kerja AI SEATTLE – F5 (NASDAQ: FFIV) hari ini mengumumkan ketersediaan BIG-IP Next for Kubernetes, solusi pengiriman dan keamanan aplikasi AI inovatif yang memberi penyedia layanan dan perusahaan besar titik kontrol terpusat untuk mempercepat, mengamankan, dan menyederhanakan lalu lintas data yang masuk dan keluar dari infrastruktur AI berskala besar. Solusi ini memanfaatkan kekuatan NVIDIA BlueField-3 DPU yang berkinerja tinggi untuk meningkatkan efisiensi lalu lintas pusat data yang sangat penting untuk penerapan AI berskala besar. Dengan tampilan terintegrasi dari jaringan, manajemen lalu lintas, dan keamanan, pelanggan akan dapat memaksimalkan pemanfaatan sumber daya pusat data sambil mencapai kinerja aplikasi AI yang optimal. Hal ini tidak hanya meningkatkan efisiensi infrastruktur tetapi juga memungkinkan inferensi AI yang lebih cepat dan responsif, yang pada akhirnya memberikan pengalaman pelanggan berbasis AI yang lebih baik. F5 BIG-IP Next for Kubernetes adalah solusi yang dirancang khusus untuk lingkungan Kubernetes yang telah terbukti di infrastruktur cloud dan 5G berskala besar untuk perusahaan telekomunikasi. Dengan BIG-IP Next for Kubernetes, teknologi ini kini disesuaikan untuk kasus penggunaan AI terkemuka seperti inferensi, generasi yang ditingkatkan dengan pengambilan (RAG), serta manajemen dan penyimpanan data yang mulus. Integrasi dengan NVIDIA BlueField-3 DPU meminimalkan jejak perangkat keras, memungkinkan multi-tenancy granular, dan mengoptimalkan konsumsi energi sambil memberikan jaringan berkinerja tinggi, keamanan, dan manajemen lalu lintas. Kombinasi teknologi F5 dan NVIDIA memungkinkan penyedia layanan telekomunikasi seluler dan tetap untuk mempermudah transisi ke infrastruktur berbasis cloud-native (Kubernetes), menangani permintaan yang terus berkembang agar vendor dapat menyesuaikan fungsinya dengan model cloud-native network functions (CNFs). F5 BIG-IP Next for Kubernetes memindahkan tugas-tugas berbasis data berat ke BlueField-3 DPU, membebaskan sumber daya CPU untuk aplikasi yang menghasilkan pendapatan. Solusi ini sangat bermanfaat di tepi jaringan untuk virtualized RAN (vRAN) atau DAA untuk MSO, dan di jaringan inti untuk 5G, membuka potensi masa depan untuk 6G. Dirancang khusus untuk penyedia layanan dengan permintaan tinggi dan infrastruktur berskala besar, F5 BIG-IP Next for Kubernetes: Menyederhanakan pengiriman layanan AI di skala cloud: BIG-IP Next for Kubernetes terintegrasi mulus dengan jaringan depan pelanggan, secara signifikan mengurangi latensi sambil memberikan pengaturan beban berkinerja tinggi untuk menangani permintaan data besar dari model AI multi-miliar parameter dan triliunan operasi. Meningkatkan kontrol penerapan AI: Solusi ini menawarkan titik integrasi terpusat ke jaringan AI modern dengan observabilitas yang kaya dan informasi yang sangat terperinci. BIG-IP Next for Kubernetes mendukung beberapa protokol L7 selain HTTP, memastikan kontrol masuk dan keluar yang lebih baik dengan kinerja sangat tinggi. Melindungi lanskap AI yang baru: Pelanggan dapat sepenuhnya mengotomatiskan penemuan dan keamanan titik akhir pelatihan dan inferensi AI. BIG-IP Next for Kubernetes juga mengisolasi aplikasi AI dari ancaman yang ditargetkan, memperkuat integritas dan kedaulatan data sambil menangani kemampuan enkripsi yang penting untuk lingkungan AI modern. Ketersediaan BIG-IP Next for Kubernetes yang berjalan di NVIDIA BlueField-3 DPU akan dimulai pada bulan November. Kutipan Pendukung: “Proliferasi AI telah memicu permintaan yang belum pernah terjadi sebelumnya untuk semikonduktor dan teknologi canggih. Organisasi sedang membangun pabrik AI, lingkungan yang sangat dioptimalkan untuk melatih model AI besar dan memberikan daya pemrosesan yang diperlukan untuk skala inferensi dengan kecepatan luar biasa, dan dengan latensi minimal. Sinergi antara layanan pengiriman aplikasi dan keamanan F5 yang kuat dan komputasi terakselerasi NVIDIA menciptakan ekosistem yang kuat. Integrasi ini memberikan pelanggan observabilitas yang lebih baik, kontrol granular, dan kinerja yang dioptimalkan untuk beban kerja AI mereka di seluruh tumpukan, dari lapisan akselerasi perangkat keras hingga antarmuka aplikasi.” – Kunal Anand, Chief Technology and AI Officer di F5 “Penyedia layanan dan perusahaan memerlukan komputasi terakselerasi untuk mengirimkan aplikasi AI berkinerja tinggi secara aman dan efisien di skala cloud. NVIDIA bekerja dengan F5 untuk mempercepat pengiriman aplikasi AI, memastikan efisiensi puncak dan pengalaman pengguna yang mulus yang didukung oleh BlueField-3 DPU.” – Ash Bhalgat, Sr. Director AI Networking and Security Partnerships di NVIDIA “Mewujudkan potensi AI memerlukan kemampuan pemrosesan data lebih banyak dari yang dipersiapkan industri sebelumnya. Bagi banyak perusahaan, menerapkan AI mutakhir memerlukan pembangunan infrastruktur besar yang sangat kompleks dan mahal, sehingga operasi yang efisien dan aman lebih penting dari sebelumnya. F5 BIG-IP Next for Kubernetes mengatasi masalah kinerja dan keamanan untuk infrastruktur AI berskala besar. Dengan memberikan manajemen lalu lintas yang dioptimalkan, organisasi mendapatkan kinerja pengambilan data yang lebih baik dan pemanfaatan server saat inferensi model AI. Ini menghasilkan pengalaman pelanggan yang sangat ditingkatkan bagi pengguna aplikasi AI.” – Kuba Stolarski, Research Vice President, Computing Systems Research Practice di IDC Ledakan beban kerja AI telah menciptakan gelombang permintaan baru untuk kontrol yang skalabel, teroptimalkan, dan ditingkatkan atas ingress dan egress Kubernetes. Dengan F5 kini menyampaikan manfaat yang telah terbukti dari BIG-IP Next for Kubernetes langsung di NVIDIA BlueField-3 DPU, ini membuka teknologi yang sudah terbukti yang kini dapat diterapkan pada titik penyisipan yang ideal untuk penerapan AI berskala besar. Klien WWT akan dapat merasakan manfaat dari kinerja pengambilan data dan pemanfaatan GPU yang lebih baik selama pelatihan model serta pengalaman pengguna yang lebih baik selama inferensi, sambil mendapatkan titik kontrol strategis untuk layanan keamanan. Teknologi dari F5 dan NVIDIA—dua kemitraan strategis kami—lebih lanjut memperkuat misi global kami dalam memberikan keamanan digital yang unggul.” – Todd Hathaway, Global Practice Manager, AI, App, and API Security Solutions di WWT
F5 Membantu Penyedia Layanan dan Perusahaan Membuka Potensi Penuh Implementasi AI dengan NVIDIA BlueField-3 DPU
Selama beberapa dekade terakhir, dunia bisnis telah menghadapi banyak titik balik yang didorong oleh revolusi teknologi, dan F5 telah hadir untuk membantu pelanggan kami melalui titik-titik kritis ini. Ketika organisasi mulai melaksanakan transformasi digital mereka, aplikasi menjadi inti dari bisnis, dan F5 memastikan aplikasi-aplikasi tersebut dapat disampaikan dan diamankan dalam skala besar. Baru-baru ini, ketika 5G menjanjikan untuk merevolusi dunia bisnis dengan kecepatan, layanan, dan keandalan yang belum pernah ada sebelumnya, F5 hadir untuk membantu perusahaan telekomunikasi dalam menerapkan inti 5G berbasis cloud dalam skala besar. Sekarang, sekali lagi, kita berada di titik balik, mungkin yang terbesar yang dihadapi industri kami, saat organisasi mencari cara untuk memanfaatkan kekuatan AI. Saat pelanggan menerapkan teknologi transformatif ini, F5 membantu mereka membuka potensi penuh implementasi AI berskala besar mereka. Kesulitan dalam Mencapai Kinerja Optimal Peningkatan adopsi klaster AI mendorong transformasi menuju komputasi yang dipercepat. Mencoba menggunakan praktik yang sudah ada dalam komputasi umum, jaringan, keamanan, dan pemantauan sering kali mengarah pada ketidakefisienan, keterlambatan, dan biaya yang terus meningkat. Kebutuhan pemrosesan data yang sangat besar dari AI memberikan tekanan besar pada infrastruktur jaringan tradisional, yang membuatnya sulit untuk mempertahankan kinerja optimal. Unit pemrosesan data NVIDIA BlueField (DPU) telah muncul sebagai solusi kunci. Dengan memindahkan dan mempercepat tugas jaringan dan keamanan berkecepatan tinggi—seperti pemrosesan paket, enkripsi, dan kompresi—BlueField-3 DPU memberikan konektivitas jaringan cloud yang optimal. Optimasi ini meningkatkan kinerja keseluruhan dan mempercepat akses Unit Pemrosesan Grafis (GPU) ke data. Penyedia layanan dan perusahaan besar sedang membangun infrastruktur AI berskala besar atau “pabrik” AI, menggunakan platform komputasi terakselerasi NVIDIA untuk melakukan pelatihan dan inferensi model AI generatif dalam skala besar. Bisnis perlu memaksimalkan investasi mereka dalam pabrik AI, yang bisa sangat besar. Namun tanpa fondasi yang tepat, infrastruktur AI bisa kurang dimanfaatkan. Mengelola Lalu Lintas yang Luas yang Dituju ke Server AI dengan Efisien F5 BIG-IP Next for Kubernetes yang diterapkan di NVIDIA BlueField-3 DPU dirancang untuk mengatasi masalah ini. Solusi ini fokus pada pemindahan dan percepatan F5 BIG-IP Next Service Proxy untuk Kubernetes (SPK) di BlueField-3 DPU milik NVIDIA. Ini dibangun di atas kepemimpinan F5 dalam mengatasi tantangan pengiriman aplikasi dan keamanan yang kritis selama titik balik pasar utama, sambil memanfaatkan inovasi NVIDIA dalam komputasi terakselerasi dan jaringan berkinerja tinggi. F5 BIG-IP Next SPK dikembangkan untuk memecahkan masalah yang dihadapi penyedia layanan dengan Kubernetes saat mereka beralih ke 5G. Infrastruktur 5G dibangun di atas arsitektur berbasis cloud dan terkontainer, dengan beban kerja kontainer yang dikelola menggunakan Kubernetes. Namun, Kubernetes awalnya tidak dirancang untuk menangani kasus penggunaan kompleks yang dibutuhkan di lingkungan 5G. BIG-IP Next SPK membantu perusahaan telekomunikasi menyesuaikan jaringan Kubernetes untuk infrastruktur 5G, memberi mereka visibilitas, kontrol, dan keamanan yang mereka butuhkan untuk secara dinamis mengskalakan jaringan 5G mereka. Selama beberapa tahun terakhir, penyedia layanan telah menggunakan BIG-IP untuk mewujudkan teknologi 5G untuk jutaan pelanggan. Sama seperti BIG-IP Next SPK memainkan peran penting dalam memungkinkan 5G Core pada titik balik pasar sebelumnya, kini ia berkembang untuk mengatasi tantangan titik balik pasar AI dan pengiriman beban kerja AI, yang memiliki kesamaan dengan beban kerja 5G, namun melibatkan volume lalu lintas yang jauh lebih besar. Untuk memenuhi permintaan titik balik pasar baru ini, F5 meluncurkan BIG-IP Next untuk Kubernetes yang diterapkan di BlueField-3 DPU NVIDIA untuk mengelola lalu lintas yang sangat besar yang diarahkan ke server AI. Solusi Ini Mengubah Pengiriman Aplikasi Modern untuk Memenuhi Permintaan AI Generatif Ini adalah implementasi berbasis Kubernetes dari platform BIG-IP F5 yang menangani jaringan, keamanan, dan beban kerja pengaturan beban, duduk di titik pemisah antara klaster AI dan bagian lainnya dari pusat data. BIG-IP Next untuk Kubernetes memetakan ruang nama klaster AI ke penyewaan jaringan pusat data, memberikan keamanan yang tepat dan manajemen yang disederhanakan. Dengan memanfaatkan akselerator perangkat keras BlueField-3 DPU, BIG-IP Next untuk Kubernetes mempercepat berbagai layanan jaringan dan data, mengoptimalkan efisiensi energi dengan memindahkan sumber daya komputasi CPU. Misalnya, pada acara Networking @Scale 2024 yang diadakan Meta awal tahun ini, mereka menyebutkan bahwa pelatihan model bahasa pembelajaran sumber terbuka mereka (LLM) Llama 3 terhambat oleh latensi jaringan, yang diatasi dengan menyesuaikan interaksi perangkat keras dan perangkat lunak. Pendekatan ini meningkatkan kinerja keseluruhan sebesar 10%. Meskipun 10% mungkin tampak sebagai peningkatan kecil, untuk model yang memerlukan waktu berbulan-bulan untuk dilatih, perbaikan ini berarti minggu-minggu yang diselamatkan. Mengurangi Kompleksitas Implementasi AI F5 BIG-IP Next untuk Kubernetes yang diterapkan di BlueField-3 DPU menawarkan berbagai manfaat bagi penyedia layanan dan perusahaan besar yang ingin membangun infrastruktur AI berskala besar. Beberapa manfaat ini meliputi: Integrasi yang Disederhanakan: Hingga saat ini, organisasi menghadapi kompleksitas dalam merakit komponen perangkat lunak dari vendor yang berbeda untuk mengirimkan dan mengamankan aplikasi AI mereka. BIG-IP Next untuk Kubernetes menggabungkan jaringan, keamanan, manajemen lalu lintas, dan pengaturan beban dalam satu solusi, menyederhanakan kompleksitas implementasi AI. Ini juga menawarkan tampilan terintegrasi dari fungsi-fungsi ini di seluruh infrastruktur AI, bersama dengan observabilitas yang kaya dan kontrol granular yang dibutuhkan untuk mengoptimalkan beban kerja AI. Keamanan yang Ditingkatkan: BIG-IP Next untuk Kubernetes mendukung fitur keamanan kritis dan arsitektur zero trust, termasuk firewall tepi, mitigasi Distributed Denial-of-Service (DDoS), perlindungan API, pencegahan intrusi, enkripsi, dan manajemen sertifikat—memindahkan fungsi-fungsi ini ke DPU dan membebaskan sumber daya CPU yang berharga. Kinerja yang Ditingkatkan: BIG-IP Next untuk Kubernetes mempercepat jaringan dan keamanan, yang sangat penting untuk memenuhi permintaan yang dibutuhkan oleh infrastruktur AI dalam pengiriman aplikasi di skala cloud. Dukungan Multi-Tenancy: BIG-IP Next untuk Kubernetes memungkinkan arsitektur multi-tenant sehingga penyedia layanan dapat menghosting beberapa pengguna secara aman di infrastruktur AI yang sama, sambil menjaga beban kerja dan data AI mereka terpisah. Berhasil Mengirimkan Pusat Data yang Dioptimalkan untuk AI Dengan mempertimbangkan tantangan dan solusi yang tersedia, organisasi dapat berhasil mengirimkan pusat data yang dioptimalkan untuk AI tanpa mengganggu operasi yang ada atau mengorbankan keamanan. F5 BIG-IP Next untuk Kubernetes yang diterapkan di BlueField-3 DPU muncul sebagai opsi yang sangat menarik, memberikan integrasi yang mulus, keamanan yang ditingkatkan, dan kinerja yang lebih baik untuk beban kerja AI, termasuk LLM berskala besar seperti Llama 3.
Epic dan F5 Pastikan Pengiriman Data Pasien yang Aman untuk Sistem Perawatan Medis Terkemuka di Swiss
Dari mengamankan informasi kesehatan pribadi (PHI) hingga mencegah pelanggaran keamanan siber dan meningkatkan kinerja jaringan, F5 telah berada di garis depan membantu dunia medis berkembang—dan kemitraan kesehatan kami dengan Epic, penyedia perangkat lunak perawatan kesehatan terkemuka, adalah bagian penting dari ekosistem tersebut. Dengan bekerja sama untuk melindungi kinerja dan keamanan aplikasi perawatan kesehatan, F5 dan Epic memastikan penyedia layanan kesehatan dapat memberikan perawatan yang sangat baik. Salah satu contoh terbaru adalah bagaimana kami bergabung untuk membantu sistem perawatan medis terkemuka di Swiss mengatasi tantangan IT besar. Infrastruktur load balancing yang sudah usang pada sistem perawatan medis ini menyebabkan ketidakstabilan jaringan, tepat saat sistem tersebut akan beralih ke sistem baru dengan tenggat waktu yang ketat. Gagal menyelesaikan masalah ini akan membahayakan perawatan pasien dan membuat perusahaan terpapar potensi ketidakpatuhan regulasi. Ketidakstabilan jaringan ini terjadi pada saat yang paling buruk. Dengan peluncuran sistem yang sangat penting semakin dekat, infrastruktur yang ada tidak dapat menangani tuntutan IT perawatan kesehatan modern. Ketidakstabilan jaringan ini mengancam untuk mengganggu layanan medis penting, dan taruhannya sangat tinggi—penundaan atau downtime dapat mempengaruhi perawatan pasien dan melanggar hukum privasi seperti HIPAA dan Peraturan Perlindungan Data Umum (GDPR). Membangun Infrastruktur yang Tangguh dengan Cepat F5 BIG-IP Application Services Templates (FAST), yang menyediakan cara mudah dan efektif untuk menyebarkan aplikasi pada sistem BIG-IP, menjadi kunci untuk menyelesaikan masalah ini. Dengan menerapkan BIG-IP FAST, sistem perawatan kesehatan tersebut dengan cepat mengonfigurasi solusi load balancing baru yang menstabilkan jaringan dan mendukung transisi sistem. BIG-IP FAST memungkinkan organisasi untuk: Mengonfigurasi Load Balancer dengan Cepat: Template yang sudah dibangun sebelumnya memungkinkan penyedia Swiss untuk menyiapkan infrastruktur yang tangguh dengan cepat, mengurangi kompleksitas konfigurasi manual, dan menghemat waktu penting. Mengamankan Data Pasien: Template BIG-IP FAST mengintegrasikan enkripsi dan kontrol akses, memastikan data medis sensitif terlindungi selama transisi. Menjamin Kepatuhan: Dengan dukungan bawaan untuk standar regulasi, BIG-IP FAST membantu penyedia mempertahankan kepatuhan dengan regulasi lokal dan internasional, menghindari potensi konsekuensi hukum dan finansial. Menyelesaikan Tantangan Jaringan dan Keamanan yang Krusial Salah satu tantangan krusial yang diselesaikan dengan BIG-IP FAST adalah ketidakstabilan jaringan. Transisi ini membutuhkan load balancing yang stabil dan aman, dan BIG-IP FAST memastikan penyedia perawatan kesehatan dapat mengimplementasikannya dengan cepat, menjaga jaringan tetap berjalan tanpa gangguan. Keamanan juga menjadi perhatian utama. Dengan BIG-IP FAST, organisasi menerapkan konfigurasi aman yang melindungi data pasien dari ancaman siber, sangat penting di lingkungan yang semakin sering menjadi target serangan ransomware. Template BIG-IP FAST menyederhanakan proses untuk mematuhi peraturan data yang kompleks seperti HIPAA dan GDPR, mengurangi risiko denda yang mahal dan kerusakan reputasi. Transisi yang Mulus Tanpa Downtime Dengan BIG-IP FAST, penyedia medis Swiss memenuhi tenggat waktu go-live mereka, menghindari gangguan yang dapat memengaruhi perawatan pasien. Jaringan distabilkan, sistem baru berhasil diterapkan, dan data sensitif tetap aman sepanjang proses. Kisah sistem perawatan medis Swiss ini menunjukkan sinergi yang kuat antara upaya bersama Epic dan F5, terutama di lingkungan yang penuh tantangan di mana keamanan dan garis waktu operasional sangat penting. Ini juga menunjukkan nilai praktis dari F5 BIG-IP FAST dalam lingkungan yang penuh risiko dan sensitif terhadap waktu. Dengan menyederhanakan proses penyebaran dan meningkatkan keamanan, BIG-IP FAST terbukti penting dalam membantu penyedia perawatan kesehatan besar melewati transisi krusial tanpa mengorbankan perawatan pasien.
Memperkenalkan Asisten AI untuk F5 Distributed Cloud Services
F5 memperkenalkan asisten baru yang didorong oleh AI dalam F5 Distributed Cloud Services, solusi keamanan, jaringan, dan manajemen aplikasi berbasis SaaS kami. Seiring dengan berkembangnya penggunaan Distributed Cloud Services oleh pelanggan, kompleksitas dan upaya yang terlibat dalam penyampaian, pengamanan, dan pengoperasian aplikasi dapat meningkat seiring dengan bertambahnya jumlah aplikasi yang diterapkan di konsol. Untuk lebih mendukung misi kami dalam membuat keamanan dan pengiriman aplikasi skala besar menjadi sangat mudah, F5 telah mengembangkan asisten AI untuk F5 Distributed Cloud Console. Asisten AI ini memberdayakan pelanggan untuk meningkatkan penggunaan platform dalam mengamankan dan mengirimkan aplikasi dan API terdistribusi mereka di lingkungan hibrida dan multicloud. Dikembangkan untuk tim keamanan, jaringan, dan keandalan situs Asisten AI baru ini membawa beberapa kemampuan cerdas untuk menyederhanakan manajemen dan keamanan aplikasi serta API menggunakan antarmuka bahasa alami, termasuk: Wawasan waktu nyata: Meningkatkan keamanan aplikasi dan kesehatan situs dengan visibilitas terkini mengenai situs hibrida dan multicloud, memastikan praktisi keamanan dan jaringan dapat dengan cepat mendeteksi dan merespons ancaman yang muncul, menjaga postur keamanan yang kuat. Penyederhanaan: Memanfaatkan kemampuan penyederhanaan canggih untuk mengubah volume data yang besar menjadi laporan yang jelas dan ringkas. Ini memungkinkan tim untuk lebih memahami informasi yang kompleks dan kejadian keamanan canggih untuk membuat keputusan yang lebih terinformasi tanpa harus menyaring data yang berlebihan. Rekomendasi yang dapat ditindaklanjuti: Memberikan rekomendasi yang dapat ditindaklanjuti, memungkinkan pengguna untuk dengan cepat menangani ancaman yang teridentifikasi, masalah kinerja, status kesehatan jaringan, dan kerentanannya. Dengan membimbing pengguna melalui langkah-langkah yang diperlukan, asisten AI membantu meningkatkan keamanan secara keseluruhan dan mempercepat operasi respons insiden. Peningkatan operasional dan efisiensi: Mengotomatiskan dan menyederhanakan tugas keamanan dan jaringan yang kompleks untuk meningkatkan efisiensi operasional secara signifikan. Hal ini memungkinkan tim SecOps dan NetOps untuk fokus pada inisiatif strategis, mengurangi beban kerja, dan mengoptimalkan alokasi sumber daya. Untuk respons keamanan kritis seperti kerentanannya zero-day, asisten AI mempercepat respons insiden dengan kemampuan deteksi dan mitigasi yang cepat. Ketika ancaman zero-day muncul, praktisi keamanan dapat menanyakan informasi ancaman yang relevan pada asisten AI. Asisten AI membimbing pengguna ke tampilan analitik keamanan, di mana tim dapat dengan cepat mengidentifikasi dan menganalisis pola lalu lintas berbahaya. Dengan rekomendasi yang dapat ditindaklanjuti, pengguna dapat menerapkan langkah perlindungan seperti memblokir alamat IP jahat menggunakan kebijakan layanan. Proses efisien ini secara signifikan mengurangi waktu respons dari hari menjadi menit, memastikan perlindungan aset penting dan meminimalkan potensi kerusakan. Mulai menggunakan asisten AI hari ini Pelanggan Distributed Cloud Services yang ada dapat mengakses asisten AI hari ini langsung dari konsol. Bagi mereka yang baru mengenal F5 Distributed Cloud Platform, jelajahi kekuatan dan efisiensi alur kerja tambahan dari asisten AI dengan demo interaktif. Solusi perlindungan aplikasi web dan API terkemuka (WAAP) serta jaringan multicloud aman F5 membuka lebih banyak kemampuan dengan asisten AI, menyediakan bantuan bahasa alami untuk tugas keamanan dan jaringan yang paling kritis. Apa yang akan datang? F5 berkomitmen untuk memperluas integrasi AI-nya, meningkatkan analitik prediktif, respons insiden otomatis, dan pengalaman pengguna yang dipersonalisasi. Dengan mengintegrasikan model AI generatif dengan solusi keamanan dan pengiriman aplikasi terkemuka kami, F5 membantu pelanggan di mana pun mereka berada dalam perjalanan AI mereka. Dari deteksi ancaman cerdas hingga optimisasi jaringan otomatis dan keamanan dinamis, nantikan lebih banyak inovasi berbasis AI yang menjanjikan untuk meningkatkan efisiensi dan keamanan di lanskap digital.
F5 Membantu Anda Mengatasi Persyaratan Baru PCI DSS v4.0
Pada Maret 2022, Payment Card Industry (PCI) Security Standards Council (SSC) merilis versi terbaru dari Data Security Standard-nya, PCI DSS v4.0, dan secara resmi menghentikan PCI DSS v3.2.1 pada akhir Maret 2024. PCI DSS adalah standar global yang menetapkan persyaratan keamanan teknis dan operasional minimum untuk kepatuhan oleh organisasi mana pun yang menyimpan, memproses, atau mentransmisikan data kartu pembayaran. Menandakan kemajuan besar dalam keamanan data kartu pembayaran dengan merancang fleksibilitas dan kontrol risiko yang lebih besar dibandingkan dengan versi sebelumnya, PCI DSS v4.0 dan pembaruannya (versi terbaru dari standar PCI DSS adalah v4.0.1) memberikan praktik terbaik bagi organisasi untuk diikuti. Namun, dalam waktu sedikit lebih dari 3 bulan (setelah 31 Maret 2025), “praktik terbaik” PCI DSS v4.x ini akan beralih menjadi persyaratan yang akan diterapkan pada setiap penilaian PCI DSS. PCI DSS v4.x menekankan pentingnya mengamankan data pemegang kartu yang sensitif sepanjang siklus hidup kartu pembayaran. Mengharuskan enkripsi, baik data pemegang kartu dalam perjalanan maupun saat istirahat, menekankan pentingnya transaksi pembayaran dan perlindungan data sambil memberikan pertahanan preventif terhadap ancaman yang muncul. PCI DSS dan WAFs Dalam PCI DSS v3.2.1, organisasi memiliki opsi untuk melindungi aplikasi web yang menghadap publik secara manual atau dengan alat penilaian keamanan kerentanannya otomatis setidaknya setiap tahun atau setelah perubahan signifikan pada aplikasi. Atau mereka dapat memilih untuk memasang solusi otomatis di depan aplikasi web yang menghadap publik untuk terus mendeteksi dan mencegah serangan berbasis web, yang dikonfigurasi untuk memblokir atau menghasilkan peringatan tentang serangan. Namun, PCI DSS v4.x akan mengharuskan organisasi untuk menerapkan solusi di depan aplikasi web yang menghadap publik untuk terus mendeteksi, mencegah, dan menghasilkan peringatan tentang serangan berbasis web (PCI DSS v4.0 subbagian 6.4.2). Itulah yang dilakukan oleh web application firewall (WAF). WAF dipasang di depan aplikasi yang menghadap publik untuk memeriksa lalu lintas aplikasi, mendeteksi dan melindungi terhadap serangan berbasis web. WAF mencegah serangan pada lapisan aplikasi, termasuk serangan yang dapat mengeksploitasi kerentanannya yang umum dan tidak diketahui dalam aplikasi dan rantai pasokan perangkat lunaknya—kode inti, pustaka pihak ketiga, alat bangun, dan kode lainnya yang menyusun aplikasi kompleks dan canggih saat ini. WAF juga melindungi terhadap serangan yang berusaha mengeksploitasi kelemahan implementasi atau konfigurasi serta serangan otomatis terhadap pembayaran, kredensial, dan aplikasi yang terpasang. Bagaimana F5 Dapat Membantu F5 mengamankan aplikasi dan API mana saja, di mana saja. Solusi WAF kami dapat diterapkan di depan aplikasi mana pun, terlepas dari tempat aplikasi tersebut berada. Apakah Anda memerlukan WAF untuk melindungi aplikasi yang berada di tempat atau di pusat data atau di cloud, F5 memiliki solusi WAF yang akan memberikan keamanan lapisan aplikasi yang komprehensif dan perlindungan dari eksploitasi dan serangan. F5 WAF tersedia sebagai perangkat keras, perangkat lunak, atau di cloud melalui layanan mandiri atau layanan terkelola, mengamankan aplikasi yang dikontainerisasi dan Kubernetes, dan lainnya. Produk F5 telah disertifikasi sebagai penyedia layanan PCI DSS Level 1. Penyedia layanan, sebagaimana didefinisikan oleh PCI SSC, adalah organisasi yang tidak menyediakan kartu pembayaran bermerek atau bentuk lainnya, tetapi memproses, menyimpan, atau mentransmisikan data pemegang kartu atau data otentikasi sensitif untuk organisasi lain. Perusahaan yang memberikan layanan untuk mengontrol atau mempengaruhi keamanan data pemegang kartu atau data otentikasi sensitif, seperti F5 melalui F5 Distributed Cloud Services, juga diklasifikasikan sebagai penyedia layanan PCI DSS v4.0. F5 membantu pelanggan kami memenuhi persyaratan PCI DSS sebagai pedagang, yang didefinisikan oleh PCI SSC sebagai entitas mana pun yang menerima kartu pembayaran yang menampilkan logo dari merek pembayaran yang berpartisipasi sebagai pembayaran untuk barang dan/atau layanan. F5 Distributed Cloud Services menyediakan berbagai layanan yang menangani banyak bagian dan subbagian dari standar PCI DSS v4.0 untuk organisasi yang menyimpan, memproses, atau mentransmisikan data kartu pembayaran. F5 Distributed Cloud WAF mengamankan aplikasi di mana saja—melintasi cloud, pusat data, dan lokasi edge. Sebagai proxy perantara, Distributed Cloud WAF memeriksa permintaan dan respons aplikasi, memblokir dan mengurangi risiko, termasuk kategori OWASP Top 10, kampanye ancaman, pengguna jahat, ancaman DDoS lapisan 7, bot, dan serangan otomatis, untuk menyebutkan beberapa. Ini mengurangi serangan aplikasi web dan kerentanannya melalui kontrol keamanan dan kebijakan yang komprehensif dan konsisten, dengan pengamatan yang mudah untuk dikonfigurasi, diterapkan, dikelola, dan diskalakan. F5 Distributed Cloud WAF mengintegrasikan perlindungan ke dalam proses pengembangan aplikasi Anda, memungkinkan siklus pengiriman dan rilis aplikasi yang lebih cepat dan lebih aman. Dengan menggunakan teknik deteksi berbasis tanda tangan dan AI dengan penyesuaian tanda tangan otomatis, F5 Distributed Cloud WAF memberikan keamanan lapisan aplikasi yang cepat dan sederhana dengan efektivitas maksimum. Asisten AI baru dalam Distributed Cloud Services membantu menyederhanakan keamanan untuk aplikasi dan API yang tersebar melalui antarmuka bahasa alami dengan wawasan waktu nyata, rekomendasi yang dapat ditindaklanjuti, dan ringkasan laporan data. F5 NGINX App Protect adalah WAF ringan dan berkinerja tinggi yang dirancang untuk melindungi API dan aplikasi modern di seluruh arsitektur terdistribusi dan lingkungan hibrida dengan perlindungan yang konsisten. Tidak bergantung pada platform, NGINX App Protect mengintegrasikan dengan mulus dalam proses pengembangan aplikasi Anda, mendeteksi dan mengamankan terhadap serangan aplikasi, termasuk serangan penolakan layanan (DoS) lapisan 7 dan bot. Solusi keamanan aplikasi yang kuat dan berlatensi rendah, NGINX App Protect memungkinkan Anda untuk mengamankan aplikasi di klaster Kubernetes dan cloud, membantu mengurangi biaya komputasi secara signifikan. Ini memberikan pertahanan multi-lapis, mengurangi kampanye serangan dunia maya aktif dan melampaui perlindungan kategori OWASP Top 10. F5 BIG-IP Advanced WAF adalah flagship web application firewall dari F5. Deteksi dan mitigasi dalam BIG-IP Advanced WAF yang memenangkan penghargaan berfungsi sebagai mesin untuk Distributed Cloud WAF dan NGINX App Protect. Dengan analitik perilaku, mitigasi DoS lapisan 7, enkripsi data sensitif di lapisan aplikasi, dan layanan intelijen ancaman, BIG-IP Advanced WAF melindungi aplikasi di seluruh lingkungan terdistribusi dan hibrida dari berbagai serangan aplikasi. BIG-IP Advanced WAF menyediakan dasbor dinamis yang didedikasikan yang dengan cepat dan sederhana memastikan keamanan dari ancaman yang tercantum dalam OWASP Top 10. BIG-IP Advanced WAF mencakup konfigurasi terarah untuk kasus penggunaan WAF umum, mesin pembelajaran, dan memungkinkan kustomisasi kebijakan keamanan secara rinci. Perlindungan Luas dari F5 Selain itu, F5 dapat menangani lebih banyak area yang berlaku untuk standar PCI DSS v4.0. API adalah komponen kunci dari hampir semua transaksi di berbagai industri…
AI Zero Days Telah Tiba: Apa yang Perlu Diketahui oleh CISOs
Untuk pertama kalinya, sistem penemuan kerentanannya yang didorong oleh AI telah mengidentifikasi zero-day pada perangkat lunak yang sering digunakan, menurut tim keamanan Google. Terobosan AI Google ini menegaskan pergeseran yang tak terhindarkan menuju risiko dan solusi yang didorong oleh AI. Peneliti Google menggunakan model AI, Big Sleep, untuk mengidentifikasi kerentanannya dalam keamanan memori—stack buffer underflow—pada mesin database SQLite. SQLite adalah salah satu mesin database yang paling banyak digunakan, tertanam dalam jutaan perangkat dan aplikasi. SQLite bersifat sumber terbuka dan memegang peran penting dalam rantai pasokan perangkat lunak untuk saluran data dan database. Big Sleep mengidentifikasi kerentanannya pada stack buffer underflow dalam kode, sebuah celah yang tidak terdeteksi oleh metode konvensional. Bagi CISOs, implikasinya sangat penting. AI dapat dan akan digunakan untuk mendeteksi zero-day, baik oleh aktor yang baik maupun buruk. Keamanan akan semakin dipercepat, dan AI akan diperlukan untuk mengikuti perkembangan ini. Pada saat yang sama, memastikan kontrol keamanan inti sudah diterapkan dan disetel dengan baik akan menjadi semakin penting. Momen ini menyoroti perlunya menangani ancaman yang didorong oleh AI dari dua sudut. Pertama, dengan menerapkan pertahanan yang didorong oleh AI untuk mengatasi evolusi cepat risiko keamanan. Kedua, dengan memastikan bahwa kerangka kerja keamanan yang ada diperkuat dan mampu mengintegrasikan kemampuan baru ini. Munculnya ancaman AI tidak hanya memerlukan alat yang lebih cerdas; itu memerlukan cakupan komprehensif dan otomatisasi untuk meminimalkan kesalahan manusia. Lonjakan Zero-Day yang Didorong oleh AI yang Akan Datang Model bahasa besar (LLM) yang menangani pengkodean dan analisis kode sedang berkembang pesat. Mereka juga tersedia secara bebas dan sering berada dalam domain sumber terbuka. Penyerang telah memperhatikan hal ini dan sedang aktif mencari untuk memanfaatkan AI untuk mencari kerentanannya dalam sistem. CISOs harus mengharapkan lonjakan kerentanannya yang ditemukan oleh AI yang berasal dari beberapa faktor utama: Kemampuan AI yang Canggih: Model AI modern, terutama LLM, telah menunjukkan kemampuan dalam menganalisis kode yang kompleks untuk mengidentifikasi kerentanannya yang sebelumnya tidak diketahui. Google yang memanfaatkan AI dalam Proyek Big Sleep untuk mengungkap kerentanannya zero-day yang meluas adalah contoh yang baik dari potensi AI dalam langkah proaktif untuk keamanan. Automatisasi dan Efisiensi: Alat yang didorong oleh AI dapat mengotomatiskan proses penemuan kerentanannya, secara signifikan mempercepat identifikasi kelemahan keamanan. Efisiensi ini memungkinkan deteksi kerentanannya dengan kecepatan yang tidak dapat dicapai hanya dengan metode manual. Penggunaan AI oleh GreyNoise Intelligence untuk menemukan kerentanannya di kamera streaming langsung adalah contoh dari kemampuan ini. Pemahaman Semantik yang Lebih Besar: Model AI dapat menganalisis kode dengan pemahaman yang lebih dalam tentang konteks, niat, dan fungsionalitas, menemukan kerentanannya yang mungkin terlewatkan oleh metode tradisional. Pemahaman semantik ini memungkinkan AI untuk mengidentifikasi tidak hanya kesalahan pengkodean yang jelas, tetapi juga kekurangan logika yang halus, masalah konfigurasi, dan celah keamanan yang bisa dimanfaatkan. Misalnya, OpenAI Codex telah menunjukkan kemampuan untuk menemukan kelemahan keamanan yang halus dengan menginterpretasikan perilaku yang dimaksudkan dari suatu program terhadap implementasinya yang sebenarnya. Konvergensi dari kemajuan ini berarti CISOs dan tim keamanan harus mempersiapkan diri untuk gelombang kerentanannya yang ditemukan oleh AI. Untuk tetap berada di depan, organisasi harus memprioritaskan adopsi alat pertahanan yang didorong oleh AI, meningkatkan kolaborasi antara tim pengembangan dan tim keamanan untuk mengatasi kerentanannya lebih awal, dan terus mendidik staf tentang ancaman AI yang sedang muncul. Strategi proaktif akan sangat penting untuk mengurangi risiko yang ditimbulkan oleh era baru serangan siber yang didorong oleh AI. Ini akan berarti menerapkan AI untuk melawan ancaman AI, dan juga memperkuat strategi zero trust dan strategi proaktif lainnya untuk mengurangi permukaan serangan. Pertahanan yang Lebih Dalam Menjadi Kebutuhan yang Mendalam Bagi CISOs, lanskap ancaman AI yang baru semakin menekankan pentingnya menutupi sebanyak mungkin permukaan serangan yang mungkin. Ini berarti mencakup lebih banyak data kode dan konfigurasi serta protokol. Ini juga berarti mendistribusikan mekanisme keamanan ke lebih banyak titik deteksi dalam siklus pengiriman aplikasi dan menyediakan alat serta otomatisasi untuk menghilangkan lebih banyak tugas manual. Sebagai contoh, F5 NGINX App Protect kemungkinan akan memblokir banyak zero-day yang ditemukan oleh AI dengan mencegah kelas perilaku yang anomali di berbagai protokol (HTTP/S, HTTP/2, gRPC, MQTT, dan WebSocket). NGINX App Protect dapat diterapkan di mana saja, termasuk bersama produk NGINX lainnya dan di jalur CI/CD. Untuk aspek lain dari pertahanan mendalam, konsol NGINX One SaaS berfungsi sebagai mesin rekomendasi konfigurasi otomatis, memungkinkan tim untuk dengan cepat menerapkan perubahan konfigurasi untuk memblokir zero-day di seluruh armada NGINX mereka (termasuk NGINX Plus, NGINX Open Source, produk Kubernetes, dan opsi Azure-as-a-Service). Memperluas Batasan Pertahanan Mendalam untuk Era yang Didorong oleh AI Zero-day AI bukan hanya perubahan dalam lanskap ancaman—mereka adalah gambaran masa depan keamanan siber. Penemuan kerentanannya oleh AI bukanlah kejadian yang sekali-sekali; itu adalah sinyal bahwa alat yang kita gunakan untuk melindungi diri kita harus berkembang dengan kecepatan yang sama dengan yang digunakan untuk menyerang kita. Kerentanannya yang didorong oleh AI menandai titik balik untuk keamanan siber, yang membutuhkan strategi pertahanan yang lebih luas dan lebih dalam. Saat penyerang memanfaatkan AI untuk mengungkap dan mengeksploitasi kelemahan, CISOs harus fokus pada pertahanan mendalam—menutupi lebih banyak wilayah di seluruh permukaan serangan. Ini berarti memperluas perlindungan untuk mencakup lebih banyak protokol, kode, dan data konfigurasi sambil menerapkan mekanisme keamanan di setiap tahap siklus hidup aplikasi. Meningkatnya ancaman AI tidak hanya memerlukan alat yang lebih cerdas; itu memerlukan cakupan komprehensif dan otomatisasi untuk meminimalkan kesalahan manusia. Di era baru ini, kelangsungan hidup tergantung pada memperkuat setiap lapisan dan tidak membiarkan kerentanannya tidak terlindungi.