Revelando o potencial de IA/ML na segurança cibernética: desafios, oportunidades e indicadores de progresso

Revelando o potencial de IA/ML na segurança cibernética: desafios, oportunidades e indicadores de progresso
Inteligência artificial (AI)
vem transformando o cíber segurança paisagem há mais de uma década, com aprendizado de máquina (ML) acelerando a detecção de ameaças e identificando comportamentos anômalos de usuários e entidades. No entanto, desenvolvimentos recentes em grandes modelos de linguagem (LLMs), como GPA-3 do OpenAI, trouxeram a IA para a vanguarda da comunidade de segurança cibernética. Esses modelos usam documentos cíber segurança informações para aprender como responder a solicitações sobre o tópico. LLMs também pode explicar questões de segurança complexas em linguagem fácil de entender, trazendo o não especialista para o mundo de cíber segurança.

Embora o LLMs não são uma bala de prata para segurança cibernética, eles podem detectar e mitigar rapidamente ataques cibernéticos em grande escala. Infelizmente, como acontece com todos os avanços no mundo da segurança cibernética, os malfeitores estão usando LLMs para aumentar a amplitude e a velocidade de seus ataques com algum sucesso inicial.


Um dos desafios significativos na alavancagem IA para cibersegurança está construindo confiança. A confiança é tudo em segurança e, durante anos, os fornecedores jogaram “rápido e solto” com  “IA/ML”, muitas vezes exagerando suas capacidades para aumentar o interesse em suas ofertas. Essa prática fez com que muitos tomadores de decisão de segurança cibernética ficassem céticos em relação a qualquer tecnologia que divulgasse AI / ML capacidades. Além disso, precisão e explicabilidade são dois desafios significativos em relação AI / ML. Os dados usados ​​para treinar Modelos de IA/ML conduz a saída dos modelos. Se os dados de treinamento não representarem o “mundo real”, o modelo desenvolverá um viés que pode distorcer sua capacidade de fornecer os resultados esperados. Alguns dados, como informações sobre ameaças, características de arquivo boas e ruins, indicadores de comprometimento (IOCs) e similares, são para todos. No entanto, os dados de comportamento do usuário e da entidade se aplicam apenas ao usuário ou entidade específica.  

Outro desafio significativo é a segurança dos dados. Definir e controlar quais dados de treinamento podem ser compartilhados e quais dados permanecem com as organizações é essencial. Nas mãos erradas, esses dados podem ajudar os malfeitores em seus ataques para subverter AI/ML's capacidade de identificar seus arquivos, aplicativos e comportamentos como nefastos. Como resultado, governos e entidades comerciais precisam criar regulamentações, padrões e práticas recomendadas para impedir novas ameaças.

Por exemplo, nos Detecção e Resposta Estendidas (XDR) Os produtos permitem que usuários não especializados forneçam resultados antes pensados ​​apenas para o pessoal de segurança sênior. Os não especialistas podem concluir investigações e respostas abrangentes sem escrever consultas complexas ou desenvolver scripts. Como resultado, podemos ver a atual lacuna de talentos entre a oferta e a demanda de profissionais de segurança.

Recentes Desenvolvimentos de IA acelerará o processo de automação, tornando a detecção e a resposta mais rápidas e eficazes. No entanto, embora a coleta de dados, normalização, detecção e automação de correlação sejam possíveis, ataques personalizados complexos exigem o envolvimento de um especialista em segurança profissional. Além disso, os invasores exploram vetores humanos com frequência, como visto em ataques de alto nível, como SolarWinds e o ataque Colonial Pipeline. Embora seja impossível eliminar o potencial de um usuário inadvertidamente se tornar parte de um ciberataque, avanço contínuo da tecnologia juntamente com a disponibilidade de Serviços MDR/MSSP torna possível reduzir continuamente a probabilidade de as ações de um usuário, intencionais ou acidentais, levarem a uma violação generalizada. 

Com relação aos indicadores de progresso para IA em cibersegurança, segurança postura vs. orçamento de segurança é o teste final. A IA oferece melhores resultados que são mais baratos/rápidos do que a alternativa? As equipes de segurança corporativa representam o impacto da IA ​​nas alterações reais da métrica de desempenho, como o tempo médio para detectar e responder (MTTD e MTTR, respectivamente). Os MSSPs têm a melhor oportunidade de articular o impacto da IA ​​em seus resultados, positiva ou negativamente. Como eles fornecem serviços para gerar receita, eles devem ver as implicações financeiras tangíveis após a adoção Cibersegurança orientada por IA soluções. Não existem soluções mágicas no mundo da cibersegurança. Os fornecedores de segurança que promovem qualquer tecnologia como 100% eficaz ou que afirmam ser capazes de prevenir e detectar todas as violações devem ser ridicularizados pela comunidade, pois demonstram sua incompreensão da cibersegurança para todos verem. Dito isso, os recentes desenvolvimentos em LLMs (Máquinas de Aprendizagem Baseadas em Aprendizagem) e outras tecnologias de IA (Inteligência Artificial) podem impactar a velocidade e a facilidade com que as ameaças são detectadas e mitigadas. A comunidade de cibersegurança precisa de confiança, precisão e responsabilidade para abraçar todo o potencial da IA. Além disso, sempre haverá ataques complexos que exigem intervenção humana, e os indicadores de progresso devem se concentrar em métricas como postura de segurança versus orçamento de segurança. SOC Automação. A IA pode nos ajudar a manter um mundo digital mais seguro, abordando esses desafios e monitorando o progresso.

Voltar ao Topo