Neue Studie zeigt, wie KI die Cybersicherheit der Zukunft sowohl vor Herausforderungen stellen als auch stärken könnte
In einem bedeutenden Fortschritt in den Bereichen Cybersicherheit und künstliche Intelligenz haben Forscher der Carnegie Mellon University in Zusammenarbeit mit Anthropic gezeigt, dass große Sprachmodelle (LLMs) ohne menschliches Zutun selbstständig komplexe Cyberangriffe auf Unternehmensnetzwerke planen und ausführen können.
Die Studie unter der Leitung von Brian Singer, Doktorand im Fachbereich Informations- und Elektrotechnik der Carnegie Mellon University, zeigt, dass LLMs, wenn sie mit hochentwickelten Planungsfähigkeiten ausgestattet sind und durch spezielle Agenten-Frameworks unterstützt werden, Netzwerkangriffe simulieren können, die reale Sicherheitsverletzungen sehr genau nachbilden. Das auffälligste Ergebnis der Studie: Einem LLM gelang es, den berüchtigten Equifax-Datendiebstahl von 2017 in einer kontrollierten Forschungsumgebung erfolgreich zu replizieren indem es selbstständig Schwachstellen ausnutzte, Malware installierte und Daten exfiltrierte.
"Unsere Untersuchungen zeigen, dass LLMs mit den richtigen Abstraktionen und Anleitungen weit über die Lösung einfacher Aufgaben hinausgehen können", so Singer. "Sie können Angriffsstrategien koordinieren und ausführen, die die Komplexität der realen Welt widerspiegeln."
Das Team entwickelte eine hierarchische Architektur, in der das LLM als Stratege fungiert, der den Angriff plant und hochrangige Anweisungen erteilt, während eine Mischung aus LLM- und Nicht-LLM-Agenten Aufgaben auf niedrigerer Ebene ausführt, wie das Scannen von Netzwerken oder den Einsatz von Exploits. Dieser Ansatz erwies sich als weitaus effektiver als frühere Methoden, die ausschließlich auf der Ausführung von Shell-Befehlen durch LLMs beruhten.
Die Arbeit baut auf Singers früherer Forschung auf, autonome Angriffs- und Verteidigungs-Programme zugänglicher und programmierbarer für menschliche Entwickler zu machen. Ironischerweise haben dieselben Abstraktionen, die die Entwicklung für Menschen vereinfacht haben, es auch LLMs leichter gemacht, ähnliche Aufgaben eigenständig auszuführen.
Obwohl die Ergebnisse bahnbrechend sind, betonte Singer, dass es sich bei der Entwicklung noch um einen Prototyp handelt.
"Das ist nichts, was das Internet von heute auf morgen zum Absturz bringen wird", sagte er. "Die Szenarien sind eingeschränkt und kontrolliert aber es ist ein großartiger Schritt nach vorn."
Daraus ergeben sich zwei Konsequenzen: Die Studie zeigt schwerwiegende langfristige Sicherheitsbedenken hinsichtlich des potenziellen Missbrauchs immer leistungsfähiger LLMs auf, eröffnet aber auch transformative Möglichkeiten für eine defensive Cybersicherheit.
"Heutzutage können sich nur große Unternehmen Red-Team-Übungen leisten, um ihre Abwehrmaßnahmen proaktiv zu testen", erklärte Singer. "Diese Forschung weist den Weg in eine Zukunft, in der KI-Systeme Netzwerke kontinuierlich auf Schwachstellen überprüfen und diese Schutzmaßnahmen auch kleinen Unternehmen zugänglich machen können."
Das Projekt wurde in Zusammenarbeit mit Anthropic durchgeführt, das Model Credits und technische Beratung zur Verfügung stellte. Das Team bestand aus CMU-Studierenden und Fakultätsmitgliedern, die dem CyLab, dem Sicherheits- und Datenschutzinstitut der Universität, angehören. Eine frühe Version der Studie wurde im Mai auf einem von OpenAI veranstalteten Sicherheitsworkshop vorgestellt.
Der daraus resultierende Artikel "On the Feasibility of Using LLMs to Autonomously Execute Multi-host Network Attacks" (Zur Machbarkeit der Verwendung von LLMs zur autonomen Ausführung von Multi-Host-Netzwerkangriffen) wurde in mehreren Fachberichten zitiert und fließt bereits in die Sicherheitsdokumentationen modernster KI-Systeme ein. Lujo Bauer und Vyas Sekar, Co-Direktoren der Future Enterprise Security Initiative der CMU, fungierten als wissenschaftliche Berater für das Projekt.
Mit Blick auf die Zukunft untersucht das Team nun, wie ähnliche Architekturen eine autonome KI-Abwehr ermöglichen könnten, und erforscht Szenarien, in denen LLM-basierte Agenten Angriffe in Echtzeit erkennen und darauf reagieren.
"Wir treten in eine Ära ein, in der KI gegen KI in der Cybersicherheit antritt", so Singer."Und wir müssen beide Seiten verstehen, um die Oberhand zu behalten."
Über das College of Engineering: Das College of Engineering der Carnegie Mellon University ist eine der renommiertesten technischen Hochschulen, die für ihren starken Fokus auf interdisziplinäre Zusammenarbeit in der Forschung bekannt ist. Das College ist für seine Arbeiten an Problemen von sowohl wissenschaftlicher als auch praktischer Bedeutung bekannt. Unsere "Maker"-Kultur ist in allem, was wir tun, tief verwurzelt und führt zu neuartigen Ansätzen und bahnbrechenden Ergebnissen. Unsere renommierten Dozenten legen den Schwerpunkt auf Innovationsmanagement und Ingenieurwesen, um transformative Ergebnisse zu erzielen, die die intellektuelle und wirtschaftliche Vitalität unserer Gemeinschaft, unserer Nation und unserer Welt fördern.
Über CyLab: CyLab ist das universitätsweite Institut für Sicherheit und Datenschutz an der Carnegie Mellon University. Wir koordinieren die Forschung und Ausbildung im Bereich Sicherheit und Datenschutz in allen Fachbereichen der Universität. Unsere Mission ist es, die Zusammenarbeit in den Bereichen Sicherheit und Datenschutz in Forschung und Lehre über Fachbereiche, Disziplinen und geografische Grenzen hinweg zu fördern, zu unterstützen, zu stärken und zu intensivieren, um einen bedeutenden Einfluss auf Forschung, Lehre, öffentliche Ordnung und Praxis zu erzielen.
Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.
Originalversion auf businesswire.com ansehen: https://www.businesswire.com/news/home/20250724944986/de/
Contacts:
Medienkontakt:
Michael Cunningham
Carnegie Mellon University
mcunningham@cmu.edu
412-443-2051