KI soll der IT-Security unter die Arme greifen
Erst am Anfang der Entwicklung
Allerdings steht man beim Einsatz künstlicher Intelligenz in der IT-Security noch ziemlich am Anfang, gibt Jan Alsenz zu bedenken. Alsenz ist bei Oneconsult, einem Schweizer Spezialisten für Penetration Testing, als Chief Research Officer tätig. «Aktuell werden überwiegend auf Regeln und Binärmustern basierende Technologien eingesetzt», berichtet er und betont, dass auch die meisten Systeme, die in Kürze auf den Markt kämen, hierauf aufbauten. Auf einer grossen Datenbasis werde einerseits der komplette Netzwerkverkehr überwacht oder das Verhalten von Programmen und Nutzern analysiert. Andererseits würden statistische und heuristische Analysen der Daten durchgeführt, um Anomalien zu erkennen. Fast alle bekannten Security-Systeme wie Antiviren-Software, Spam-Erkennungslösungen und Systeme zur Erkennung und Abwendung von Einbruchsversuchen ins Netzwerk verwendeten diese Komponenten. So gibt es ihm zufolge seit Kurzem verhaltensbasierte Malware-Erkennung oder es könnten Anomalien im Netzwerk festgestellt werden.
Theoretisch wäre mit künstlicher Intelligenz noch weit mehr möglich. Doch «Systeme, die über die Fähigkeit verfügen, Schlussfolgerungen zu ziehen, die über statistische Korrelationen oder vorgegebene semantische Beziehungen hinausgehen, existieren aktuell für keinen Bereich», sagt Alsenz. Das heisse nicht, dass die aktuellen Lösungen schlecht seien. Aber: «Sie bringen derzeit nur für bestimmte Nischen einen Nutzen und müssen teilweise noch mit erheblichem Aufwand ‹angelernt› werden.»
Theoretisch wäre mit künstlicher Intelligenz noch weit mehr möglich. Doch «Systeme, die über die Fähigkeit verfügen, Schlussfolgerungen zu ziehen, die über statistische Korrelationen oder vorgegebene semantische Beziehungen hinausgehen, existieren aktuell für keinen Bereich», sagt Alsenz. Das heisse nicht, dass die aktuellen Lösungen schlecht seien. Aber: «Sie bringen derzeit nur für bestimmte Nischen einen Nutzen und müssen teilweise noch mit erheblichem Aufwand ‹angelernt› werden.»
Grosses Potenzial
Entsprechend gross ist das Potenzial von KI-Methoden. Letztlich wird an Systemen gefeilt, welche die Effektivität von Cybersecurity-Spezialisten erhöhen sollen. «Stellen Sie sich vor, dass uns nicht nur Siri, Cortana oder Alexa unterstützen, sondern, dass wir dereinst eine persönliche KI zur Seite gestellt bekommen. Diese lernt unsere Art des Arbeitens, entlastet uns von Routine und bereitet uns Informationen so auf, dass wir die Zusammenhänge einfacher und schneller erkennen können», skizziert Häni von PwC seine Zukunftsvision. «Von diesem Szenario sind wir zwar noch ein paar Jahre entfernt, aber die Forschung macht hier grosse Fortschritte.»
Alle derzeit entwickelten Lösungen sind daher noch in einer Lernphase. IT-Security-Spezialisten beurteilen die Ergebnisse der Systeme und füttern diese wieder mit ihren Erkenntnissen. Im Grunde passiert derzeit im Security-Bereich nichts anderes, als was man aus anderen KI-Anwendungen kennt. So fütterten Google und Facebook ihre Bild- und Gesichtserkennungssysteme jahrelang mit dem Feedback der Anwender, bevor erste Automatismen zu greifen begannen. Und selbst danach sind die KI-Systeme noch auf den Input des Menschen angewiesen, etwa um eine falsche Zuordnung zu korrigieren, wenn ein Bild einer falschen Person zugewiesen wird.
Alle derzeit entwickelten Lösungen sind daher noch in einer Lernphase. IT-Security-Spezialisten beurteilen die Ergebnisse der Systeme und füttern diese wieder mit ihren Erkenntnissen. Im Grunde passiert derzeit im Security-Bereich nichts anderes, als was man aus anderen KI-Anwendungen kennt. So fütterten Google und Facebook ihre Bild- und Gesichtserkennungssysteme jahrelang mit dem Feedback der Anwender, bevor erste Automatismen zu greifen begannen. Und selbst danach sind die KI-Systeme noch auf den Input des Menschen angewiesen, etwa um eine falsche Zuordnung zu korrigieren, wenn ein Bild einer falschen Person zugewiesen wird.