Executive Summary
Moderne SOCs sind mit Datenvolumen und -komplexität überfordert. Die Fähigkeit, Sicherheitsdaten in großem Umfang zu filtern, zu normalisieren, anzureichern und weiterzuleiten, ohne dabei an Genauigkeit zu verlieren, wirkt sich direkt auf die Erkennungsgenauigkeit, die Effizienz der Analysten und die Compliance-Haltung aus. Mit dem umfassenden Verständnis der Bedeutung der Datenherausforderungen und der Anforderungen dieser Fähigkeit ist die Datenpipeline von Stellar Cyber kein Add-on, sondern eine Kernfunktion unserer KI-gesteuerte SecOps-Plattform von Anfang an. Dieses Whitepaper beschreibt die technischen Grundlagen der Pipeline von Stellar Cyber und wie ihre einzigartige Architektur Sicherheitsteams dabei hilft, ihre Datenquellen zu vereinheitlichen, Störungen zu reduzieren und die Reaktion auf Vorfälle zu beschleunigen.
Einführung: Mehr als Datenpipelines
Während sich einige Produkte nur auf das Sammeln und Verschieben von Daten konzentrieren, integriert Stellar Cyber eine umfassende Sicherheitsplattform mit einer tiefgreifend entwickelten Datenpipeline im Kern. Diese Pipeline nimmt nicht nur Daten auf und transportiert sie, sondern transformiert sie in einem mehrstufigen Prozess. Sie filtert, normalisiert, bereichert, korreliert und leitet es in den richtigen Speicher für Erkennungs- und Reaktions-Workflows und in Backup-Speicher wie S3 weiterDies ermöglicht eine echte End-to-End-Sichtbarkeit, Erkennung und Aktion.
Grundprinzipien der Stellar Cyber Data Pipeline
Um umfassende Transparenz über die gesamte Angriffsfläche eines Unternehmens zu gewährleisten, bietet die Lösung von Stellar Cyber mehrere Methoden zur Datenerfassung. Sie kann Protokolle und Netzwerktelemetrie über ihre verteilten modularen Sensoren erfassen, über ihre nativen APIs in zahlreiche Anwendungen integrieren und Server bereitstellen. Sensoren um Daten von Linux- und Windows-Servern zu erfassen.
1. Verkehrsfilterung am Rand
- Entfernt irrelevante Ereignisse frühzeitig (Rauschunterdrückung am Rand).
- Reduziert Bandbreiten- und Speicheranforderungen indem nicht kritische Protokolle im Voraus verworfen werden.
- Bietet Flexibilität durch Unterstützung richtliniengesteuerter Filterung basierend auf Anwendungstyp, Port, Protokoll oder benutzerdefinierten Regeln.
2. Normalisierung über verschiedene Quellen hinweg
Die Interflow-Normalisierungs-Engine standardisiert Protokollformate und Schemata aus zahlreichen unterschiedlichen Quellen. Dies ermöglicht:
- Automatisierte Erkennung entweder über maschinelles Lernen oder Regeln
- Automatisierte Korrelation einzelner Warnungen zu Fällen durch normalisierte Artefakte.
- Konsequente Anreicherung zur Kontextualisierung
- Schnelle Downstream-Analyse ohne wiederholtes Parsen.
- Präzise, leicht verständliche Dashboards, Berichte und Untersuchungen.
3. Kontextuelle Anreicherung in Echtzeit bei der Aufnahme
Da Daten in das Stellar Cyber Öffnen Sie XDR Auf dieser Plattform werden die Daten in Echtzeit – nicht erst nach der Aufnahme – angereichert und liefern kontextreiche Telemetriedaten, um eine schnelle und präzise Erkennung und Reaktion zu ermöglichen.
- GeoIP- und ASN-Suchen: Fügt jedem Ereignis mit IPs sofort Daten zu Land, Stadt und autonomem System hinzu.
- Echtzeit-Bedrohungsinformationen: Korreliert mit mehreren Threat-Intelligence-Feeds (kommerziell, Open Source und kundendefiniert) und wendet eine Risikobewertung in Echtzeit an.
- Benutzer- und Entitätsauflösung: Ordnet Protokolle und Datenverkehr über Active Directory, Okta, IAM-Systeme und Anlageninventare menschlichen und maschinellen Identitäten zu.
- Anwendungsidentifikation: Die Deep Packet Inspection (DPI)-Engine und das Anwendungs-Fingerprinting verbessern die Ereignisklarheit über portbasierte Heuristiken hinaus.
- Benutzerdefiniertes Tagging und Kontexteinfügung: Administratoren können geschäftsspezifischen Kontext (z. B. Anlagenkritikalität, Funktion, Compliance-Zonen) in den Datenstrom einfügen.
4. Maskierung und PII/PHI-Redaktion
5. Routing und Multiplexing
- Vermeiden Sie die Abhängigkeit von einem Anbieter.
- Erfüllen Sie vielfältige Speicher-, Compliance- oder Analyseanforderungen.
- Versorgen Sie separate Teams oder Tools, ohne den Aufnahmeaufwand zu verdoppeln.
6. Anomalieerkennung und Deduplizierung in Echtzeit
Inline-Anomalieerkennung und ML-Module nach der Datenaufnahme identifizieren Ausreißer beim Eintreffen der Daten. Deduplizierung und Aggregation reduzieren das Datenvolumen weiter, ohne die Genauigkeit zu beeinträchtigen – ideal für Umgebungen mit hohem EPS und mehreren Terabyte pro Tag.
7. Multi-Tenant-MSSP-Architektur
8. Native Plattformintegration
- Geringere Latenz.
- Schnellere Updates und Skalierbarkeit.
- Konsistente Sicherheits- und Compliance-Haltung
- Sofortige Rückkopplungsschleife zwischen der Nachbearbeitung und der Daten-Engine.
9. Flexibilität bei der Datenmigration
Skalierbarkeit und Reife
Warum die Datenpipeline von Stellar Cyber wichtig ist
- Schnellere MTTR.
- Höhere Analysteneffizienz.
- Reduzierte Infrastrukturkosten.
- Volle Transparenz von der Aufnahme bis zur Behebung.


