
Kecerdasan buatan (AI) telah mengubah keamanan cyber lanskap selama lebih dari satu dekade, dengan pembelajaran mesin (ML) mempercepat deteksi ancaman dan mengidentifikasi perilaku pengguna dan entitas yang tidak normal. Namun, perkembangan terbaru dalam model bahasa besar (LLM), Seperti GPT-3 OpenAI, telah membawa AI ke garis depan komunitas keamanan siber. Model-model ini menggunakan dokumentasi keamanan cyber informasi untuk mempelajari cara menanggapi pertanyaan pada topik tersebut. LLM juga dapat menjelaskan masalah keamanan yang kompleks dalam bahasa yang mudah dipahami, membawa orang awam ke dunia keamanan cyber.
Sementara LLM bukanlah peluru ajaib untuk keamanan siber, mereka dapat dengan cepat mendeteksi dan mengurangi serangan siber dalam skala besar. Sayangnya, seperti semua kemajuan dalam dunia keamanan siber, pelaku kejahatan menggunakan LLM untuk meningkatkan jangkauan dan kecepatan serangan mereka dengan beberapa keberhasilan awal.

Salah satu tantangan penting dalam memanfaatkan AI untuk keamanan siber membangun kepercayaan. Kepercayaan adalah segalanya dalam keamanan, dan selama bertahun-tahun, vendor telah bermain “cepat dan longgar” dengan “AI/ML”, sering kali melebih-lebihkan kemampuan mereka untuk mendorong peningkatan minat terhadap penawaran mereka. Praktik ini telah menyebabkan banyak pengambil keputusan keamanan siber bersikap skeptis terhadap teknologi apa pun yang digembar-gemborkan AI / ML kemampuan. Selain itu, akurasi dan penjelasan adalah dua tantangan penting mengenai AI / MLData yang digunakan untuk melatih Model AI/ML mendorong keluaran model. Jika data pelatihan tidak mewakili "dunia nyata", model akan mengembangkan bias yang dapat mendistorsi kemampuannya untuk memberikan hasil yang diharapkan. Beberapa data, seperti intelijen ancaman, karakteristik file yang baik dan buruk, indikator kompromi (IOC), dan sejenisnya, berlaku untuk semua orang. Namun, data perilaku pengguna dan entitas hanya berlaku untuk pengguna atau entitas tertentu.
Tantangan penting lainnya adalah keamanan data. Menentukan dan mengendalikan data pelatihan apa yang dapat dibagikan dan data apa yang tetap berada di organisasi sangatlah penting. Di tangan yang salah, data ini dapat membantu pelaku kejahatan dalam serangan mereka untuk merusak AI/ML kemampuan untuk mengidentifikasi berkas, aplikasi, dan perilaku mereka sebagai sesuatu yang jahat. Akibatnya, pemerintah dan badan usaha perlu membuat peraturan, standar, dan praktik terbaik untuk menangkal ancaman baru.
Sebagai contoh, Deteksi dan Respons yang Diperluas (XDR) Produk ini memungkinkan pengguna awam untuk memberikan hasil yang sebelumnya hanya dianggap untuk personel keamanan senior. Nonahli dapat menyelesaikan investigasi dan respons yang komprehensif tanpa menulis pertanyaan yang rumit atau mengembangkan skrip. Hasilnya, kita dapat melihat kesenjangan bakat saat ini antara pasokan dan permintaan profesional keamanan.
Baru Perkembangan AI akan mempercepat proses otomatisasi, membuat deteksi dan respons lebih cepat dan lebih efektif. Namun, meskipun pengumpulan data, normalisasi, deteksi, dan otomatisasi korelasi dimungkinkan, serangan khusus yang rumit memerlukan keterlibatan pakar keamanan profesional. Selain itu, penyerang sering mengeksploitasi vektor manusia, seperti yang terlihat dalam serangan terkenal seperti SolarWinds dan serangan Colonial Pipeline. Meskipun tidak mungkin untuk menghilangkan potensi pengguna yang secara tidak sengaja menjadi bagian dari cyberattack, kemajuan teknologi yang berkelanjutan ditambah dengan tersedianya Layanan MDR/MSSP memungkinkan untuk terus mengurangi kemungkinan tindakan pengguna, baik disengaja maupun tidak disengaja, yang menyebabkan pelanggaran yang meluas.
Mengenai indikator kemajuan untuk AI dalam keamanan siber, keamanan postur vs anggaran keamanan adalah ujian akhir. Apakah AI memberikan hasil yang lebih baik yang lebih murah/cepat daripada alternatifnya? Dampak AI pada tim keamanan perusahaan tercermin dalam perubahan metrik kinerja aktual, seperti waktu rata-rata untuk mendeteksi dan merespons (MTTD dan MTTR, masing-masing). MSSP memiliki peluang terbaik untuk mengartikulasikan dampak AI pada laba bersih mereka, baik secara positif maupun negatif. Karena mereka memberikan layanan untuk mendorong pendapatan, mereka harus melihat implikasi keuangan yang nyata setelah mengadopsi Keamanan siber berbasis AI Tidak ada solusi ajaib di dunia keamanan siber. Vendor keamanan yang mempromosikan teknologi apa pun sebagai 100% efektif atau mengklaim kemampuan untuk mencegah dan mendeteksi semua pelanggaran harus dicemooh oleh komunitas karena mereka menunjukkan kesalahpahaman mereka tentang keamanan siber kepada semua orang. Meskipun demikian, perkembangan terbaru dalam LLM dan teknologi AI lainnya dapat memengaruhi kecepatan dan kemudahan deteksi dan mitigasi ancaman. Komunitas keamanan siber harus memiliki kepercayaan, akurasi, dan akuntabilitas untuk merangkul potensi penuh AI. Selain itu, akan selalu ada serangan kompleks yang membutuhkan keterlibatan manusia, dan indikator kemajuan harus fokus pada metrik seperti postur keamanan versus anggaran keamanan dan SOC otomatisasi. AI dapat membantu kita menjaga dunia digital yang lebih aman dengan mengatasi tantangan-tantangan ini dan melacak kemajuannya.


