Sicherheitsforscher konnten Open AI’s GPT-4 dazu anstiften, Sicherheitslücken zu finden und diese dann zu 87% auch erfolgreich ausnutzen – mit GPT 3.5 waren 0% der Angriffe erfolgreich. Sogenannte Large Language Models (LLMs) werden also vermutlich bereits genutzt, um Cyber-Angriffe auszuführen oder zumindest zu unterstützen. Werkzeuge können immer für Frieden wie für Krieg verwendet werden und GPT-4 ist nunmal vor allem ein Werkzeug.
Auf Basis öffentlich einsehbarer Informationen kann das Sprachmodell GPT-4 autark Software-Schwachstellen ausnutzen.
Quelle: l+f: GPT-4 liest Beschreibungen von Sicherheitslücken und nutzt sie aus | heise online