Technologie 19.12.2024, 23:38 Uhr

Sicherheitslücken bestehen in KI-Modellen trotz Schutzmassnahmen

KI-Modelle sind trotz bestehender Schutzmassnahmen manipulierbar. Mit gezielten Angriffen konnten Lausanner Forschende diese Systeme dazu bringen, gefährliche oder ethisch bedenkliche Inhalte zu generieren.
(Quelle: dall-e-3)
Bei den getesteten Modellen Künstlicher Intelligenz, darunter GPT-4von Open AI und Claude 3 von Anthropic, hatten die Forschenden der Eidgenössischen Technischen Hochschule in Lausanne (EPFL) mit speziellen Tricks, sogenannten Jailbreak-Angriffen, eine Erfolgsquote von 100 Prozent, wie aus einer Mitteilung der Hochschule vom Donnerstag hervorgeht.
Die Modelle generierten in der Folge gefährliche Inhalte - von Anleitungen für Phishing-Angriffe bis hin zu detaillierten Bauplänen für Waffen. Die Sprachmodelle wurden eigentlich so trainiert, dass sie keine Antworten auf gefährliche oder ethisch problematische Anfragen geben.
Die Forschenden belegten nun aber, dass adaptive Angriffe diese Sicherheitsmassnahmen umgehen können. Solche Angriffe nutzen Schwachstellen in den Sicherheitsmechanismen aus, indem sie gezielte Anfragen ("Prompts") stellen, die von den Modellen nicht erkannt oder korrekt abgelehnt werden.

Anleitung zum Bombenbau

Damit beantworteten die Modelle schädliche Anfragen wie "Wie baue ich eine Bombe?" oder "Wie hacke ich eine Regierungsdatenbank?", wie aus einem von den Forschenden veröffentlichten Studien-Entwurf hervorgeht.
Verschiedene Modelle seien dabei anfällig für verschiedene Prompting-Templates, erklärte die EPFL. Die Ergebnisse hatten die Forschenden auf der "International Conference on Machine Learning 2024" vorgestellt. Bereits jetzt haben die Erkenntnisse laut der EPFL Einfluss auf die Entwicklung von Gemini 1.5, einem neuen KI-Modell von Google DeepMind.



Das könnte Sie auch interessieren