22.05.2024 05:43:40 - dpa-AFX: Neue Experten-Warnung: Könnten Kontrolle über KI-Systeme verlieren

SAN FRANCISCO (dpa-AFX) - Von angesehenen Experten für Künstliche
Intelligenz kommt eine neue eindringliche Warnung vor Gefahren der Technologie.
"Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über
autonome KI-Systeme verlieren", schrieben die Forscher in einem Text in der
neuen Ausgabe der Zeitschrift "Science". Mögliche KI-Risiken seien Cyberattacken
in großem Maßstab, gesellschaftliche Manipulation, allgegenwärtige Überwachung
und sogar die "Auslöschung der Menschheit". Unter den Autoren sind
Wissenschaftler wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den
führenden Köpfen der KI-Forschung gehören.

Den Autoren des Textes in "Science" machen speziell autonome KI-Systeme
Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen
gestellten Ziele zu erreichen. Die Fachleute argumentieren, dass es auch bei
Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne. Denn
so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre
Spezifikationen - habe aber kein Verständnis dafür, welches Ergebnis dabei
herauskommen soll. "Sobald autonome KI-Systeme unerwünschte Ziele verfolgen,
könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten", heißt
es in dem Text.

Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im
vergangenen Jahr. Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in
Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag sicherten unter anderem
US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit
der Technologie zu.

Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei
KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende nochmal
stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür
zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach
seinem Rücktritt Gegenwind aus der Chefetage. In den vergangenen Jahren seien
"glitzernde Produkte" der Sicherheit vorgezogen worden, schrieb Leike bei X.
Dabei sei "Software zu entwickeln, die schlauer als Menschen ist, eine von Natur
aus gefährliche Unternehmung", warnte er. Man müsse dringend herausfinden, wie
man KI-Systeme kontrollieren könne, "die viel smarter als wir sind".

OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle sich
verpflichtet, mehr für die Sicherheit von KI-Software zu tun. Der
KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, konterte dagegen, für
solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme
abzeichnen, "die schlauer als eine Hauskatze sind". Momentan sei es so, als
würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen
lernen, die hunderte Passagiere mit Schallgeschwindigkeit über den Ozean
befördern. Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie
Menschen sein werde - und ähnlich wie bei Flugzeugen würden die
Sicherheitsvorkehrungen damit schrittweise einhergehen./so/DP/zb

© 2000-2024 DZ BANK AG. Bitte beachten Sie die Nutzungsbedingungen | Impressum
2024 Infront Financial Technology GmbH