
Intelligenza artificiale (AI) ha trasformato il sicurezza informatica paesaggio per oltre un decennio, con apprendimento automatico (ML) velocizzare il rilevamento delle minacce e identificare comportamenti anomali di utenti ed entità. Tuttavia, i recenti sviluppi nei modelli di linguaggio di grandi dimensioni (LLM), come GPT-3 di OpenAI, hanno portato l'IA in prima linea nella comunità della sicurezza informatica. Questi modelli utilizzano documentato sicurezza informatica informazioni per imparare a rispondere alle richieste sull'argomento. LLM può anche spiegare problemi di sicurezza complessi con un linguaggio di facile comprensione, portando il non esperto nel mondo di sicurezza informatica.
Mentre LLM non sono una pallottola d'argento per la sicurezza informatica, possono rilevare e mitigare rapidamente gli attacchi informatici su larga scala. Sfortunatamente, come con tutti i progressi nel mondo della sicurezza informatica, i cattivi attori stanno usando LLM per aumentare l'ampiezza e la velocità dei loro attacchi con un certo successo iniziale.

Una delle sfide significative nella leva finanziaria AI per la sicurezza informatica sta creando fiducia. La fiducia è tutto nella sicurezza, e per anni i venditori hanno giocato "al massimo". "AI/ML", spesso sopravvalutando le loro capacità di suscitare un maggiore interesse per le loro offerte. Questa pratica ha reso scettici molti responsabili delle decisioni in materia di sicurezza informatica nei confronti di qualsiasi propaganda tecnologica AI / ML capacità. Inoltre, l'accuratezza e la spiegabilità sono due sfide significative per quanto riguarda AI / ML. I dati utilizzati per l'addestramento Modelli AI/ML guida l'output dei modelli. Se i dati di addestramento non rappresentano il "mondo reale", il modello svilupperà un bias che può distorcere la sua capacità di fornire i risultati attesi. Alcuni dati, come informazioni sulle minacce, caratteristiche dei file buone e cattive, indicatori di compromissione (IOC) e simili, sono per tutti. Tuttavia, i dati sul comportamento dell'utente e dell'entità si applicano solo all'utente o all'entità specifici.
Un'altra sfida significativa è la sicurezza dei dati. Definire e controllare quali dati di formazione possono essere condivisi e quali dati rimangono nelle organizzazioni è essenziale. Nelle mani sbagliate, questi dati potrebbero aiutare i cattivi attori nei loro attacchi per sovvertire AI/ML capacità di identificare i propri file, applicazioni e comportamenti come nefasti. Di conseguenza, i governi e le entità commerciali devono creare regolamenti, standard e best practice per contrastare le nuove minacce.
Per esempio, Rilevamento e risposta estesi (XDR) i prodotti consentono agli utenti non esperti di fornire risultati una volta pensati solo per il personale di sicurezza senior. I non esperti possono completare indagini e risposte complete senza scrivere query complesse o sviluppare script. Di conseguenza, possiamo vedere l'attuale divario di talenti tra l'offerta e la domanda di professionisti della sicurezza.
Recente Sviluppi dell'IA accelererà il processo di automazione, rendendo il rilevamento e la risposta più rapidi ed efficaci. Tuttavia, mentre la raccolta dei dati, la normalizzazione, il rilevamento e l'automazione della correlazione sono possibili, attacchi complessi su misura richiedono il coinvolgimento di esperti di sicurezza professionali. Inoltre, gli aggressori sfruttano frequentemente i vettori umani, come si è visto in attacchi di alto profilo come SolarWinds e l'attacco Colonial Pipeline. Sebbene sia impossibile eliminare la possibilità che un utente diventi inavvertitamente parte di un attacco informatico, il continuo progresso tecnologico unito alla disponibilità di Servizi MDR/MSSP consente di ridurre continuamente la probabilità che le azioni di un utente, intenzionali o accidentali, portino a una violazione diffusa.
Per quanto riguarda gli indicatori di progresso per IA nella sicurezza informatica, sicurezza postura rispetto al budget per la sicurezza è l'ultima prova. L'intelligenza artificiale offre risultati migliori che sono più economici/più veloci dell'alternativa? I team di sicurezza aziendale rappresentano l'impatto dell'IA nei cambiamenti delle metriche delle prestazioni effettive, come il tempo medio per rilevare e rispondere (MTTD e MTTR, rispettivamente). Gli MSSP hanno la migliore opportunità di articolare l'impatto dell'IA sui loro profitti, in positivo o in negativo. Dal momento che forniscono servizi per aumentare le entrate, dovrebbero vedere le implicazioni finanziarie tangibili dopo l'adozione Sicurezza informatica basata sull'intelligenza artificiale Soluzioni. Non esistono soluzioni magiche nel mondo della sicurezza informatica. I fornitori di sicurezza che promuovono una tecnologia come efficace al 100% o che affermano di essere in grado di prevenire e rilevare tutte le violazioni dovrebbero essere derisi dalla comunità, in quanto mostrano a tutti la loro incomprensione della sicurezza informatica. Detto questo, i recenti sviluppi nei LLM e in altre tecnologie di intelligenza artificiale possono influire sulla velocità e sulla facilità con cui le minacce vengono rilevate e mitigate. La comunità della sicurezza informatica deve avere fiducia, accuratezza e responsabilità per sfruttare appieno il potenziale dell'intelligenza artificiale. Inoltre, ci saranno sempre attacchi complessi che richiedono il coinvolgimento umano e gli indicatori di progresso dovrebbero concentrarsi su parametri come la postura di sicurezza rispetto al budget per la sicurezza e SOC automazione. L'intelligenza artificiale può aiutarci a mantenere un mondo digitale più sicuro affrontando queste sfide e monitorando i progressi.


