Liberar el potencial de AI/ML en ciberseguridad: desafíos, oportunidades e indicadores de progreso

Liberar el potencial de AI/ML en ciberseguridad: desafíos, oportunidades e indicadores de progreso
Inteligencia Artificial (AI)
ha ido transformando la los riesgos de seguridad cibernética paisaje durante más de una década, con aprendizaje automático (ML) acelerar la detección de amenazas e identificar comportamientos anómalos de usuarios y entidades. Sin embargo, desarrollos recientes en modelos de lenguajes grandes (LLM), como GPT-3 de OpenAI, han llevado a la IA al frente de la comunidad de ciberseguridad. Estos modelos utilizan documentado los riesgos de seguridad cibernética información para aprender a responder a las indicaciones sobre el tema. LLM también puede explicar problemas de seguridad complejos en un lenguaje fácil de entender, acercando al no experto al mundo de los riesgos de seguridad cibernética.

Aunque LLM no son una bala de plata para la ciberseguridad, pueden detectar y mitigar rápidamente los ciberataques a escala. Desafortunadamente, como con todos los avances en el mundo de la ciberseguridad, los malos actores están usando LLM para aumentar la amplitud y la velocidad de sus ataques con cierto éxito temprano.


Uno de los desafíos importantes en el aprovechamiento IA para ciberseguridad es generar confianza. La confianza lo es todo en seguridad y, durante años, los proveedores han jugado "rápido y suelto" con  “IA/ML”, a menudo exagerando sus capacidades para impulsar un mayor interés en sus ofertas. Esta práctica ha provocado que muchos responsables de la toma de decisiones en ciberseguridad se muestren escépticos ante cualquier tecnología que promueva AI / ML capacidades. Además, la precisión y la explicabilidad son dos desafíos importantes con respecto a AI / ML. Los datos utilizados para entrenar Modelos de IA/ML impulsa la salida de los modelos. Si los datos de entrenamiento no representan el "mundo real", el modelo desarrollará un sesgo que puede sesgar su capacidad para generar los resultados esperados. Algunos datos, como la información sobre amenazas, las características buenas y malas de los archivos, los indicadores de compromiso (IOC) y similares, son para todos. Sin embargo, los datos de comportamiento de usuarios y entidades solo se aplican al usuario o entidad específicos.  

Otro desafío importante es la seguridad de los datos. Definir y controlar qué datos de capacitación se pueden compartir y qué datos se quedan con las organizaciones es esencial. En las manos equivocadas, estos datos podrían ayudar a los malos actores en sus ataques para subvertir IA/ML capacidad de identificar sus archivos, aplicaciones y comportamientos como nefastos. Como resultado, los gobiernos y las entidades comerciales necesitan desarrollar regulaciones, estándares y mejores prácticas para frustrar las nuevas amenazas.

Por ejemplo, Detección y respuesta extendidas (XDR) Los productos permiten a los usuarios no expertos ofrecer resultados que alguna vez se pensaron solo para el personal de seguridad senior. Los no expertos pueden completar investigaciones y respuestas integrales sin escribir consultas complejas o desarrollar guiones. Como resultado, podemos ver la brecha de talento actual entre la oferta y la demanda de profesionales de la seguridad.

Recientes desarrollos de IA acelerará el proceso de automatización, haciendo que la detección y la respuesta sean más rápidas y efectivas. Sin embargo, si bien la recopilación de datos, la normalización, la detección y la automatización de la correlación son posibles, los ataques personalizados complejos requieren la participación de expertos en seguridad profesional. Además, los atacantes explotan vectores humanos con frecuencia, como se ve en ataques de alto perfil como SolarWinds y el ataque Colonial Pipeline. Si bien es imposible eliminar la posibilidad de que un usuario se convierta inadvertidamente en parte de un ciberataque, el avance continuo de la tecnología junto con la disponibilidad de Servicios MDR/MSSP hace posible reducir continuamente la probabilidad de que las acciones de un usuario, ya sea intencional o accidental, conduzcan a una violación generalizada. 

En cuanto a los indicadores de progreso para IA en ciberseguridad, seguridad postura versus presupuesto de seguridad es la prueba definitiva. ¿La IA ofrece mejores resultados que son más baratos o más rápidos que la alternativa? Los equipos de seguridad empresarial representan el impacto de la IA en los cambios de métricas de rendimiento reales, como el tiempo medio para detectar y responder (MTTD y MTTR, respectivamente). Los MSSP tienen la mejor oportunidad de articular el impacto de la IA en sus resultados, de manera positiva o negativa. Dado que brindan servicios para generar ingresos, deben ver las implicaciones financieras tangibles después de adoptar Ciberseguridad impulsada por IA Soluciones. No existen fórmulas mágicas en el mundo de la ciberseguridad. Los proveedores de seguridad que promocionan cualquier tecnología como 100 % efectiva o afirman la capacidad de prevenir y detectar todas las brechas deberían ser ridiculizados por la comunidad, ya que demuestran su incomprensión de la ciberseguridad a la vista de todos. Dicho esto, los recientes avances en LLM y otras tecnologías de IA pueden afectar la velocidad y la facilidad con la que se detectan y mitigan las amenazas. La comunidad de la ciberseguridad debe tener confianza, precisión y responsabilidad para aprovechar todo el potencial de la IA. Además, siempre habrá ataques complejos que requieran intervención humana, y los indicadores de progreso deben centrarse en métricas como la postura de seguridad frente al presupuesto de seguridad y SOC automatización. La IA puede ayudarnos a mantener un mundo digital más seguro al abordar estos desafíos y realizar un seguimiento del progreso.

Ir al Inicio