
人工智能(AI) 一直在改变 网络安全 景观十多年,与 机器学习(ML) 加快威胁检测并识别异常用户和实体行为。 然而,大型语言模型的最新发展 (法学硕士),如 OpenAI的GPT-3, 将 AI 带到了网络安全社区的最前沿。 这些模型使用记录 网络安全 信息以了解如何响应有关该主题的提示。 法学硕士 还可以用通俗易懂的语言解释复杂的安全问题,将非专家带入安全的世界 网络安全.
而 法学硕士 不是网络安全的灵丹妙药,它们可以快速检测和大规模缓解网络攻击。 不幸的是,随着网络安全领域的所有进步,不良行为者正在使用 法学硕士 以增加攻击的广度和速度,并取得一些早期的成功。

杠杆化的重大挑战之一 用于网络安全的 AI 正在建立信任。 信任是安全的一切,多年来,供应商一直在“快速而松散”地玩 “人工智能/机器学习”,经常夸大他们的能力来提高人们对其产品的兴趣。 这种做法导致许多网络安全决策者对任何技术兜售持怀疑态度 AI / ML 能力。 此外,准确性和可解释性是关于 AI / ML. 用于训练的数据 人工智能/机器学习模型 驱动模型的输出。 如果训练数据不代表“真实世界”,模型就会产生偏差,从而影响其交付预期结果的能力。 一些数据,例如威胁情报、好的和坏的文件特征、妥协指标 (IOC) 等,对每个人都是公开的。 但是,用户和实体行为数据仅适用于特定的用户或实体。
另一个重大挑战是数据安全。 定义和控制哪些培训数据可以共享以及哪些数据保留在组织中至关重要。 如果落入坏人之手,这些数据可能会协助不良行为者进行攻击以颠覆 人工智能/机器学习 将他们的文件、应用程序和行为识别为恶意的能力。 因此,政府和商业实体需要制定法规、标准和最佳实践来阻止新的威胁。
例如, 扩展检测和响应 (XDR) 产品使非专家用户能够提供曾经只有高级安全人员才想到的结果。 非专家无需编写复杂的查询或开发脚本即可完成全面的调查和响应。 由此可见,目前安全人才供需之间的人才缺口。
最近的 人工智能发展 将加速自动化过程,使检测和响应更快、更有效。 然而,虽然数据收集、规范化、检测和关联自动化是可能的,但复杂的定制攻击需要专业安全专家的参与。 此外,攻击者经常利用人类向量,如 SolarWinds 和 Colonial Pipeline 攻击等备受瞩目的攻击所示。 虽然不可能消除用户无意中成为 网络攻击,持续的技术进步加上可用性 MDR/MSSP 服务 可以持续降低用户行为(无论是有意还是无意)导致大范围违规的可能性。
关于进度指标 网络安全中的人工智能, 安全 态势与安全预算 是终极考验。 AI 是否提供比替代方案更便宜/更快的更好结果? 企业安全团队代表 AI 对实际性能指标变化的影响,例如检测和响应的平均时间(MTTD 和 MTTR, 分别)。 MSSP 有最好的机会阐明 AI 对其利润的正面或负面影响。 由于他们提供服务来增加收入,因此他们应该在采用后看到切实的财务影响 人工智能驱动的网络安全 解决方案。 网络安全世界中没有灵丹妙药。 宣传任何技术 100% 有效或声称能够预防和检测所有漏洞的安全供应商应该受到社区的嘲笑,因为他们向所有人展示了他们对网络安全的误解。 也就是说,LLM 和其他 AI 技术的最新发展可能会影响检测和缓解威胁的速度和难易程度。 网络安全社区必须具有信任、准确性和责任感,才能发挥 AI 的全部潜力。 此外,总会有需要人工参与的复杂攻击,进度指标应侧重于安全态势与安全预算和 SOC 自动化等指标。 人工智能可以通过应对这些挑战和跟踪进展来帮助我们维护一个更安全的数字世界。


