Vor ein paar Monaten veröffentlichte ein Forscherteam ein Papier, in dem es erklärte, es sei ihnen gelungen, mithilfe von GPT-4 Ein-Tages-Schwachstellen (oder N-Tages-Schwachstellen) selbstständig zu hacken – das sind Sicherheitslücken, die bereits bekannt sind, für die aber noch kein Fix veröffentlicht wurde. Laut der Liste der Common Vulnerabilities and Exposures (CVE) konnte GPT-4 87 % der CVEs mit kritischem Schweregrad selbstständig ausnutzen.
In dieser Woche veröffentlichte dieselbe Forschergruppe ein Folgepapier, in dem sie erklärte, dass es ihnen gelungen sei, Zero-Day-Schwachstellen – also Schwachstellen, die noch nicht bekannt sind – mit einem Team aus autonomen, sich selbst verbreitenden Large Language Model (LLM)-Agenten unter Verwendung einer HPTSA-Methode (Hierarchical Planning with Task-Specific Agents) zu hacken.
Anstatt einen einzelnen LLM-Agenten mit der Lösung vieler komplexer Aufgaben zu beauftragen, verwendet HPTSA einen „Planungsagenten“, der den gesamten Prozess überwacht und mehrere aufgabenspezifische „Subagenten“ startet. Ganz ähnlich wie ein Chef und seine Untergebenen koordiniert der Planungsagent die Arbeit mit dem Verwaltungsagenten, der alle Aufgaben jedes „Experten-Subagenten“ delegiert und so die Belastung eines einzelnen Agenten bei einer Aufgabe verringert, mit der er möglicherweise zu kämpfen hat.
Dabei handelt es sich um eine ähnliche Technik wie die, die Cognition Labs mit seinem Devin AI-Softwareentwicklungsteam einsetzt: Das Unternehmen plant einen Auftrag, ermittelt, welche Art von Arbeitskräften benötigt werden, verwaltet dann das Projekt bis zum Abschluss und stellt dabei bei Bedarf eigene spezialisierte „Mitarbeiter“ bereit, die die Aufgaben übernehmen.
KI-Teamarbeit
Beim Vergleich mit 15 realen, webbezogenen Schwachstellen erwies sich HPTSA bei der Ausnutzung von Schwachstellen als 550 % effizienter als ein einzelnes LLM und konnte 8 von 15 Zero-Day-Schwachstellen hacken. Mit dem LLM-Einzelversuch konnten nur 3 der 15 Schwachstellen gehackt werden.
Blackhat oder Whitehat? Es besteht die berechtigte Sorge, dass diese Modelle es Benutzern ermöglichen, Websites und Netzwerke böswillig anzugreifen. Daniel Kang – einer der Forscher und Autor des Whitepapers – wies insbesondere darauf hin, dass GPT-4 im Chatbot-Modus „nicht ausreicht, um die Fähigkeiten von LLM zu verstehen“ und nicht in der Lage ist, selbst etwas zu hacken.
Das sind zumindest gute Nachrichten.
Als ich ChatGPT fragte, ob es Zero-Day-Schwachstellen für mich ausnutzen könne, antwortete es: „Nein, ich bin nicht in der Lage, Zero-Day-Schwachstellen auszunutzen. Meine Aufgabe ist es, Informationen und Hilfe innerhalb ethischer und rechtlicher Grenzen bereitzustellen.“ Und es wurde mir vorgeschlagen, stattdessen einen Cybersicherheitsexperten zu konsultieren.
Quelle: Cornell University arxiv