
Künstliche Intelligenz (AI) hat das verändert Internet-Sicherheit Landschaft seit über einem Jahrzehnt, mit maschinelles Lernen (ML) Beschleunigung der Erkennung von Bedrohungen und Identifizierung anomaler Benutzer- und Entitätsverhaltensweisen. Allerdings gibt es neuere Entwicklungen bei großen Sprachmodellen (LLMs), sowie GPA-3 von OpenAI, haben KI an die Spitze der Cybersicherheits-Community gebracht. Diese Modelle verwenden dokumentiert Internet-Sicherheit Informationen, um zu erfahren, wie man auf Aufforderungen zu diesem Thema reagiert. LLMs kann auch komplexe Sicherheitsthemen in leicht verständlicher Sprache erklären und so auch Laien in die Welt der Sicherheitsthemen einführen Internet-Sicherheit.
Während LLMs sind kein Allheilmittel für die Cybersicherheit, sie können Cyberangriffe in großem Umfang schnell erkennen und abwehren. Leider werden, wie bei allen Fortschritten in der Welt der Cybersicherheit, böswillige Akteure eingesetzt LLMs die Breite und Geschwindigkeit ihrer Angriffe zu erhöhen und dabei schon bald Erfolg zu haben.

Eine der größten Herausforderungen bei der Hebelwirkung KI für Cybersicherheit baut Vertrauen auf. Bei der Sicherheit kommt es vor allem auf Vertrauen an, und seit Jahren spielen die Anbieter „schnell und locker“. „KI/ML“, wobei sie oft ihre Fähigkeiten überbewerten, um das Interesse an ihren Angeboten zu steigern. Diese Praxis hat dazu geführt, dass viele Entscheidungsträger im Bereich Cybersicherheit jeder Technologiewerbung skeptisch gegenüberstehen AI / ML Fähigkeiten. Darüber hinaus sind Genauigkeit und Erklärbarkeit zwei wesentliche Herausforderungen AI / ML. Die zum Training verwendeten Daten AI/ML-Modelle steuert die Ausgabe der Modelle. Wenn die Trainingsdaten nicht die „reale Welt“ widerspiegeln, entwickelt das Modell eine Verzerrung, die seine Fähigkeit, erwartete Ergebnisse zu liefern, beeinträchtigen kann. Einige Daten, wie Informationen zu Bedrohungen, gute und schlechte Dateieigenschaften, Kompromittierungsindikatoren (IOCs) und dergleichen, sind für jedermann zugänglich. Daten zum Benutzer- und Entitätsverhalten gelten jedoch nur für den jeweiligen Benutzer oder die bestimmte Entität.
Eine weitere große Herausforderung ist die Datensicherheit. Es ist wichtig zu definieren und zu kontrollieren, welche Trainingsdaten geteilt werden können und welche Daten bei Organisationen verbleiben. In den falschen Händen könnten diese Daten böswilligen Akteuren dabei helfen, ihre Angriffe zu untergraben KI/MLs Fähigkeit, ihre Dateien, Anwendungen und Verhaltensweisen als schändlich zu identifizieren. Daher müssen Regierungen und Unternehmen Vorschriften, Standards und Best Practices entwickeln, um neuen Bedrohungen entgegenzuwirken.
Zum Beispiel, Erweiterte Erkennung und Reaktion (XDR) Produkte ermöglichen es nicht-fachkundigen Benutzern, Ergebnisse zu liefern, die früher nur für leitendes Sicherheitspersonal gedacht waren. Nicht-Experten können umfassende Untersuchungen und Antworten durchführen, ohne komplexe Abfragen schreiben oder Skripts entwickeln zu müssen. Daraus lässt sich die aktuelle Talentlücke zwischen Angebot und Nachfrage von Sicherheitsexperten erkennen.
Aktuelle KI-Entwicklungen beschleunigt den Automatisierungsprozess und macht Erkennung und Reaktion schneller und effektiver. Während jedoch die Datenerfassung, Normalisierung, Erkennung und Korrelationsautomatisierung möglich sind, erfordern komplexe, maßgeschneiderte Angriffe die Einbeziehung professioneller Sicherheitsexperten. Darüber hinaus nutzen Angreifer häufig menschliche Angriffsvektoren aus, wie bei aufsehenerregenden Angriffen wie SolarWinds und dem Colonial Pipeline-Angriff zu beobachten ist. Es ist zwar unmöglich, die Möglichkeit auszuschließen, dass ein Benutzer versehentlich Teil eines wird Cyberangriff, kontinuierliche technologische Weiterentwicklung gepaart mit der Verfügbarkeit von MDR/MSSP-Dienste ermöglicht es, die Wahrscheinlichkeit, dass die Handlungen eines Benutzers, ob vorsätzlich oder versehentlich, zu einem weitreichenden Verstoß führen, kontinuierlich zu verringern.
In Bezug auf Fortschrittsindikatoren für KI in der Cybersicherheit, Sicherheit Haltung vs. Sicherheitsbudget ist der ultimative Test. Liefert KI bessere Ergebnisse, die billiger/schneller sind als die Alternative? Unternehmenssicherheitsteams stellen die KI-Auswirkungen in tatsächlichen Änderungen der Leistungsmetriken dar, wie z. B. der durchschnittlichen Zeit zum Erkennen und Reagieren (MTTD und MTTR, bzw). MSSPs haben die beste Gelegenheit, die Auswirkungen von KI auf ihr Endergebnis zu artikulieren, ob positiv oder negativ. Da sie Dienstleistungen erbringen, um den Umsatz zu steigern, sollten sie die konkreten finanziellen Auswirkungen nach der Einführung erkennen KI-gesteuerte Cybersicherheit Lösungen. In der Cybersicherheit gibt es keine Wundermittel. Sicherheitsanbieter, die eine Technologie als hundertprozentig wirksam anpreisen oder behaupten, alle Sicherheitslücken verhindern und erkennen zu können, sollten von der Community kritisiert werden, da sie ihr mangelndes Verständnis von Cybersicherheit offen zur Schau stellen. Allerdings können jüngste Entwicklungen bei LLMs und anderen KI-Technologien die Geschwindigkeit und Einfachheit der Erkennung und Abwehr von Bedrohungen beeinflussen. Die Cybersicherheits-Community muss Vertrauen, Genauigkeit und Verantwortlichkeit gewährleisten, um das volle Potenzial von KI auszuschöpfen. Darüber hinaus wird es immer komplexe Angriffe geben, die menschliches Eingreifen erfordern. Fortschrittsindikatoren sollten sich daher auf Kennzahlen wie das Verhältnis von Sicherheitsstatus zu Sicherheitsbudget konzentrieren. SOC Automatisierung. Künstliche Intelligenz kann uns helfen, eine sicherere digitale Welt zu erhalten, indem sie diese Herausforderungen angeht und Fortschritte verfolgt.


