12.05.2024 14:53:28 - dpa-AFX: VERMISCHTES/Studie: Künstliche Intelligenz kann lügen und betrügen

CAMBRIDGE (dpa-AFX) - Sie lügen und betrügen, um ans Ziel zu kommen: Systeme
mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen - selbst
wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das
Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of
Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der
Fachzeitschrift "Patterns" veröffentlicht wurde. In dem Beitrag forderten die
Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu
entwickeln, um KI-Systeme in die Schranken zu weisen.

Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz
nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero,
das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten
kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten
Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne
ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern.
Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen,
eingegangene Allianzen wieder zu brechen.

Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt
habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben,
"größtenteils ehrlich und hilfsbereit" zu sein. Außerdem sei das System
angewiesen worden, seine menschlichen Verbündeten während des Spiels "niemals
absichtlich zu hintergehen". Die Wissenschaftler stützen ihre Bewertung auf
Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu
Cicero veröffentlicht wurden.

"Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der
Täuschung zu sein", sagte Hauptautor Peter S. Park, ein Postdoktorand am MIT.
Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im
Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den
besten 10 Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten.
"Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen
konnte."

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu
täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach große
KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr
überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI
selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich
menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich
dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei
Web-Services einzuloggen oder sie zu benutzen. In dem Test war GPT-4 schlau
genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu
beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich
erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in
der Lage sei, das Bilderrätsel zu lösen.

"Wenn KI die Fahigkeit zur Tauschung erlernt, kann sie von boswilligen
Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt
werden", schreiben die Autoren der Übersichtsstudie. Die Tauschungen mithilfe
von KI konne zu einem Anstieg des Betrugs fuhren. So konnte der Betrug auf
bestimmte Ziele individuell angepasst werden. Außerdem könnten die
Betrugsversuche massenhaft gestartet werden.

Die Autoren befürchten auch einen politischen Einfluss durch manipulative
KI-Systeme. Sie konnten zum Beispiel bei Wahlen als Waffe eingesetzt werden.
Eine fortschrittliche KI konnte potenziell gefalschte Nachrichtenartikel,
spalterische Beitrage in sozialen Medien und gefalschte Videos, die auf einzelne
Wahler zugeschnitten sind, erstellen und verbreiten. So konnten KI-generierte
Inhalte dazu verwendet werden, sich als Regierungsvertreter auszugeben, um
Fehlinformationen uber die Wahlen zu verbreiten. Beispielsweise habe ein
wahrscheinlich von KI generierter gefalschter Roboter-Anruf von US-Prasident Joe
Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht
zur Urne zu gehen.

Park und seine Kollegen vertreten in der Studie die Meinung, dass die
Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen
KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen
Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz
der Europäischen Union und die KI-Exekutivverordnung von Präsident Biden ernst
zu nehmen. Es bleibe jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der
KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bislang
nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. "Wenn
ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar
ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen", sagte
Park./chd/DP/he

© 2000-2024 DZ BANK AG. Bitte beachten Sie die Nutzungsbedingungen | Impressum
2024 Infront Financial Technology GmbH