de
Terrorism free logo from Wikipedia Commons
25 Mar 2024

Sicherheitsexperten: Kostenlose KI-Maschinen könnten gehackt werden, um Terroristen zu helfen

de

Kostenlose KI-Modelle im Internet haben sich als leicht zu hacken erwiesen, und Sicherheitsexperten sind nun besorgt, dass KI zur Verbesserung der Fähigkeiten von Terroristen eingesetzt werden könnte.

In einem Artikel auf SVT.se äußert die schwedische Geheimpolizei die Befürchtung, dass KI eingesetzt werden könnte, um die Fähigkeit von Terroristen, bei Anschlägen Schaden anzurichten, zu vervielfachen.

Die schwedischen Fernsehnachrichten brachten kürzlich einen kurzen Nachrichtenbeitrag, in dem sie sich mit dem jungen KI-Unternehmer Oliver Edholm trafen , der ein aus dem Internet herunterladbares KI-Modell hackte und dessen Sicherheitssperren entfernte, um ihm Fragen zu stellen, die es normalerweise nicht beantworten darf.

Normalerweise sind KI-Modelle angewiesen, keine Fragen zur Massenvernichtung oder zur Schädigung von Menschen zu beantworten. In dem Beispiel gibt das freigeschaltete KI-Modell Beispiele dafür, wie ein Massenvernichtungsangriff auf Stockholm durch Vergiftung der Wasserversorgung durchgeführt werden könnte.

"Ich denke, es ist gut, wenn die Menschen darüber informiert sind, dass dies möglich ist", sagt Edholm gegenüber SVT.se.


"Wenn es Terroristen oder staatliche Akteure gibt, die bisher nicht in der Lage waren, eine komplexe Bedrohung auszuführen, könnten sie jetzt dank der KI vielleicht mehr Möglichkeiten erhalten", sagt Anders Arpteg, KI- und Datenmanager bei der schwedischen Geheimpolizei Säpo.

KI könnte auf vielfältige Weise zum Schaden eingesetzt werden

In einem Beitrag von 2024 auf der Website des Combating Terrorism Center, Terror generieren: The Risks of Generative AI Exploitationwird die Sorge geäußert, dass KI eingesetzt werden kann, um Propagandainhalte schneller und effizienter als je zuvor zu erstellen und zu verbreiten. Dies kann zu Rekrutierungszwecken oder zur Verbreitung von Hassreden und radikalen Ideologien genutzt werden. KI-gestützte Bots können diese Inhalte auch verstärken, so dass es schwieriger wird, sie zu erkennen und darauf zu reagieren:

Automatisierte Angriffe: Terroristen können KI nutzen, um Anschläge effizienter und effektiver auszuführen - zum Beispiel durch den Einsatz von Drohnen oder anderen autonomen Fahrzeugen.

Ausbeutung sozialer Medien: KI kann auch eingesetzt werden, um soziale Medien und andere digitale Plattformen zu manipulieren, um Propaganda zu verbreiten und Anhänger zu rekrutieren.

Cyber-Angriffe: KI kann von extremistischen Gruppen eingesetzt werden, um ihre Fähigkeit zu verbessern, Cyberangriffe gegen Ziele zu starten, die möglicherweise erheblichen Schaden anrichten können.

In der Veröffentlichung aus dem Jahr 2021 Algorithmen und Terrorismus: The Malicious Use of Artificial Intelligence for Terrorist Purposesäußerten die Vereinten Nationen die Befürchtung, dass mit der zunehmenden Verbreitung von KI die Eintrittsbarrieren gesenkt werden, indem die für den Einsatz von KI erforderlichen Fähigkeiten und technischen Kenntnisse verringert werden.

"... das Risiko, dass bereits entwickelte hochentwickelte Technologien in die falschen Hände geraten, ist allgegenwärtig. Angesichts des wachsenden Interesses an Drohnen und deren Einsatz in Konfliktgebieten sowie an der Entwicklung und dem Einsatz zunehmend autonomer Waffensysteme in Kampfgebieten besteht die Sorge, dass solche Waffen von nichtstaatlichen Akteuren, wie etwa terroristischen Gruppen, beschlagnahmt oder illegal erworben werden könnten. Diese Möglichkeit ist in der Tat eines der Argumente, die häufig von Experten angeführt werden, die ein Verbot der Entwicklung autonomer Waffensysteme fordern", heißt es in dem Bericht abschließend.