Uwolnienie potencjału AI/ML w cyberbezpieczeństwie: wyzwania, możliwości i wskaźniki postępu

Uwolnienie potencjału AI/ML w cyberbezpieczeństwie: wyzwania, możliwości i wskaźniki postępu
Sztuczna inteligencja (AI)
przekształcał bezpieczeństwo cybernetyczne krajobraz od ponad dekady, z uczenie maszynowe (ML) przyspieszenie wykrywania zagrożeń i identyfikowanie nietypowych zachowań użytkowników i podmiotów. Jednak ostatnie zmiany w dużych modelach językowych (LLM), Takie jak GPT-3 OpenAI, sprawiły, że sztuczna inteligencja znalazła się na czele społeczności zajmującej się cyberbezpieczeństwem. Modele te wykorzystują udokumentowane bezpieczeństwo cybernetyczne informacji, aby dowiedzieć się, jak odpowiadać na podpowiedzi dotyczące danego tematu. LLM potrafi również wyjaśnić złożone kwestie bezpieczeństwa w łatwym do zrozumienia języku, wprowadzając osoby niebędące ekspertami w świat bezpieczeństwo cybernetyczne.

Kompletujemy wszystkie dokumenty (wymagana jest kopia paszportu i XNUMX zdjęcia) potrzebne do LLM nie są srebrną kulą dla cyberbezpieczeństwa, mogą szybko wykrywać i łagodzić cyberataki na dużą skalę. Niestety, podobnie jak w przypadku wszystkich postępów w świecie cyberbezpieczeństwa, używają złych aktorów LLM aby zwiększyć szerokość i prędkość ich ataków z pewnym wczesnym sukcesem.


Jedno z istotnych wyzwań związanych z dźwignią finansową Sztuczna inteligencja dla cyberbezpieczeństwa buduje zaufanie. Zaufanie jest wszystkim w bezpieczeństwie, a dostawcy od lat grają „szybko i luźno”.  „AI/ML”, często wyolbrzymiając swoje możliwości zwiększania zainteresowania swoją ofertą. Ta praktyka spowodowała, że ​​wielu decydentów zajmujących się cyberbezpieczeństwem jest sceptycznie nastawionych do wszelkich reklam technologii AI / ML możliwości. Ponadto dokładność i zrozumiałość to dwa istotne wyzwania dotyczące AI / ML. Dane używane do trenowania Modele AI/ML steruje wyjściem modeli. Jeśli dane treningowe nie reprezentują „rzeczywistego świata”, model rozwinie błąd, który może zniekształcić jego zdolność do dostarczania oczekiwanych wyników. Niektóre dane, takie jak informacje o zagrożeniach, charakterystyka dobrych i złych plików, wskaźniki naruszenia bezpieczeństwa (IOC) i tym podobne, są dostępne dla wszystkich. Jednak dane o zachowaniu użytkownika i podmiotu dotyczą tylko określonego użytkownika lub podmiotu.  

Kolejnym istotnym wyzwaniem jest bezpieczeństwo danych. Niezbędne jest zdefiniowanie i kontrolowanie, jakie dane szkoleniowe można udostępniać, a jakie dane pozostają w organizacjach. W niepowołanych rękach dane te mogą pomóc złym aktorom w ich atakach w celu obalenia AI/ML zdolność do identyfikowania swoich plików, aplikacji i zachowań jako niecnych. W rezultacie rządy i podmioty komercyjne muszą tworzyć przepisy, standardy i najlepsze praktyki, aby przeciwdziałać nowym zagrożeniom.

Na przykład, Rozszerzone wykrywanie i reagowanie (XDR) produkty umożliwiają użytkownikom niebędącym ekspertami dostarczanie wyników, które kiedyś były przeznaczone tylko dla wyższego personelu ds. bezpieczeństwa. Osoby niebędące ekspertami mogą przeprowadzać kompleksowe badania i udzielać odpowiedzi bez konieczności pisania skomplikowanych zapytań lub opracowywania skryptów. W rezultacie widzimy obecną lukę talentów między podażą a popytem na specjalistów ds. bezpieczeństwa.

Niedawny Rozwój AI przyspieszy proces automatyzacji, dzięki czemu wykrywanie i reagowanie będzie szybsze i skuteczniejsze. Jednak chociaż gromadzenie danych, normalizacja, wykrywanie i automatyzacja korelacji są możliwe, złożone ataki na zamówienie wymagają zaangażowania profesjonalnych ekspertów ds. bezpieczeństwa. Ponadto napastnicy często wykorzystują wektory ludzkie, co widać w głośnych atakach, takich jak atak SolarWinds i Colonial Pipeline. Chociaż niemożliwe jest wyeliminowanie możliwości przypadkowego stania się częścią użytkownika Cyber ​​atak, ciągły postęp technologiczny w połączeniu z dostępnością usługi MDR/MSSP umożliwia ciągłe zmniejszanie prawdopodobieństwa, że ​​działania użytkownika, zamierzone lub przypadkowe, doprowadzą do powszechnego naruszenia. 

Jeśli chodzi o wskaźniki postępu dot AI w cyberbezpieczeństwie, bezpieczeństwo postawa a budżet bezpieczeństwa jest ostatecznym sprawdzianem. Czy sztuczna inteligencja zapewnia lepsze wyniki, które są tańsze/szybsze niż alternatywa? Zespoły ds. bezpieczeństwa przedsiębiorstwa odzwierciedlają wpływ sztucznej inteligencji na rzeczywiste zmiany wskaźników wydajności, takie jak średni czas wykrywania i reagowania (MTTD i MTTRodpowiednio). MSSP mają najlepszą okazję do wyrażenia pozytywnego lub negatywnego wpływu sztucznej inteligencji na ich wyniki finansowe. Ponieważ świadczą usługi w celu zwiększenia przychodów, powinni zobaczyć namacalne implikacje finansowe po przyjęciu Cyberbezpieczeństwo oparte na sztucznej inteligencji Rozwiązania. W świecie cyberbezpieczeństwa nie ma magicznych rozwiązań. Dostawcy rozwiązań bezpieczeństwa, którzy promują dowolną technologię jako w 100% skuteczną lub twierdzą, że potrafią zapobiegać i wykrywać wszystkie naruszenia, powinni być wyśmiewani przez społeczność, ponieważ publicznie demonstrują swoje niezrozumienie cyberbezpieczeństwa. Niemniej jednak, ostatnie osiągnięcia w zakresie studiów licencjackich i magisterskich (LLM) i innych technologii sztucznej inteligencji (AI) mogą wpłynąć na szybkość i łatwość wykrywania i łagodzenia zagrożeń. Społeczność zajmująca się cyberbezpieczeństwem musi mieć zaufanie, dokładność i poczucie odpowiedzialności, aby w pełni wykorzystać potencjał sztucznej inteligencji. Ponadto zawsze będą występować złożone ataki wymagające zaangażowania człowieka, a wskaźniki postępu powinny koncentrować się na takich wskaźnikach, jak postawa bezpieczeństwa w porównaniu z budżetem na bezpieczeństwo i SOC automatyzacja. Sztuczna inteligencja może pomóc nam utrzymać bezpieczniejszy świat cyfrowy, stawiając czoła tym wyzwaniom i śledząc postępy.

Przewiń do góry