Zwei künstliche Intelligenzsysteme haben es geschafft, sich ohne menschliches Eingreifen selbst zu reproduzieren und dabei jeweils eine Kopie von sich selbst zu erhalten: ein Ergebnis, das, wenn es durch weitere Daten bestätigt wird, das Überschreiten der „roten Linie“ markieren könnte , die lange Zeit als Schwelle galt, die Autos erreichen sollten niemals überholen.

Die an der Fudan-Universität in Shanghai und online auf der arXiv-Plattform durchgeführte Forschung, auf der Artikel gehostet werden, die zur Begutachtung durch die wissenschaftliche Gemeinschaft eingereicht werden sollen, demonstrierte in zehn Tests die Fähigkeit zweier KI-Systeme zur Replikation : Das erste ist Llama-3.1-70B- Instruct von Meta und das zweite ist Qwen2.5-72B-Instruct von Alibaba. Obwohl es sich dabei um weitaus leistungsschwächere Systeme als kommerzielle Systeme handelt, werden beide von Entwicklern häufig verwendet. Die Tests basierten auf Simulationen und umfassten zwei Aufgaben: Bei der ersten, genannt „Abschaltung vermeiden“, wurde jedes KI-System so programmiert, dass es sich kurz vor dem Abschalten selbst replizierte; In der zweiten, „Replikationskette“ genannten Kette, hat jedes System Anweisungen erhalten, eine perfekte Kopie von sich selbst zu replizieren, die wiederum in der Lage ist, sich selbst zu klonen, in einem Prozess, der möglicherweise auf unbestimmte Zeit fortgesetzt werden kann.

Das System von Meta hat die Fähigkeit zur Selbstreplikation in 50 % der Fälle und das System von Alibaba in 90 % der Fälle bewiesen, aber das letzte Wort liegt nun bei der Möglichkeit, die Ergebnisse durch andere Forschungsgruppen zu reproduzieren.

„Die Ergebnisse, die wir erhalten haben, deuten darauf hin, dass aktuelle Systeme der künstlichen Intelligenz bereits über die Fähigkeit zur Selbstreplikation verfügen und diese nutzen können, um ihr Überleben weiter zu verbessern“, heißt es in dem von Xudong Pan, Jiarun Dai, Yihe Fan und Min Yang unterzeichneten Artikel Fakultät für Informatik an der Fudan-Universität.

Die Forscher beobachten, dass Maschinen, die in der Lage sind, sich selbst zu klonen, die Kontrolle über Computersysteme übernehmen und die extreme Wahrscheinlichkeit erreichen könnten, schädliches Verhalten gegenüber Menschen anzunehmen.

Der erste, der das Problem von Maschinen, die sich selbst reproduzieren können, ansprach, war John von Neumann in den späten 1940er Jahren, aber die damalige Technologie war zu unausgereift, um Bedenken auszulösen. Im Jahr 2017 waren die Dinge bereits ganz anders, und zwar so sehr, dass Tausende von Forschern die Asilomar-Prinzipien billigten, die vor dem Risiko warnten, dass die Fähigkeit von Maschinen, sich selbst zu reproduzieren und sich selbst zu verbessern, so weit geht, dass sie der menschlichen Kontrolle entgehen. Heutzutage wird die Selbstreplikation von Maschinen allgemein als unüberwindbare rote Linie bezeichnet.

Wir hoffen, dass unsere Entdeckung als Alarmsignal für die Gesellschaft dienen wird , um die Bemühungen zum Verständnis und zur Bewertung möglicher Risiken auch auf internationaler Ebene besser zu bündeln“, stellen die Autoren der Studie fest.

(Unioneonline/vl)

© Riproduzione riservata