Blickwinkel

KI: Geburtsstunde selbstlernender Roboter

Trends und Innovationen

Wenn sich künstliche Intelligenz langweilt, lernt sie einfach selbständig weiter und übertrifft sich dabei selbst. Jetzt versuchen Wissenschaftler den Maschinen soziales Verhalten beizubringen.

Die Warnungen werden immer lauter

Schon vor zwei Jahren warnte der Milliardär und Tesla Motors CEO Elon Musk, dass die technische Entwicklung künstlicher Intelligenz (KI) viel schneller vorangehe als erwartet: „Wir werden abgehängt“, warnte er auf der renommierten Konferenz „Code“ – und das bereits 2016.

Er, der von Anfang an in KI investierte und die Entwicklungen über Jahre aus nächster Nähe mitverfolgte und vorantrieb, distanzierte sich alarmiert von der Weiterentwicklung der KI und zog seine Investitionen aus den Projekten. Warum? – Weil die Maschine bereits die menschliche Intelligenz bei Weitem übertroffen hat. Er befürchte, der Mensch werde zukünftig im Vergleich zu Computern auf dem Niveau von Haustieren sein. „Ich werde nicht gern eine Hauskatze“, scherzt er besorgt. 

Selbst der verstorbene Astro-Physiker Stephen Hawkins warnte noch kürzlich vor der künstlichen Intelligenz. Diese gehöre definitiv zu den vier größten Bedrohungen der Menschheit, wie unter anderem der Klimawandel, Viren und ein Atomkrieg. 

In einem im Internet veröffentlichten Brief an die Vereinten Nationen warnen letztes Jahr führende Wissenschaftler und Unternehmer im Bereich der Zukunftstechnologien vor dem Einsatz Künstlicher Intelligenz für Kriegszwecke. Die Entwicklung „tödlicher autonomer Waffen“, also autonomer Killer-Roboter, sollte weltweit verboten werden. Denn: „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben, in einem nie da gewesenen Ausmaß. Und schneller, als Menschen sie begreifen können“, sorgen sich die Fachleute. Eine „dritte Revolution der Kriegsführung“ sollte dringend vermieden werden.

Das sind Szenarien, wie man sie aus Sci-Fi-Filmen kennt. Wie konnte es zu solchen genialen aber auch beunruhigenden Entwicklungen im Bereich der Künstlichen Intelligenz kommen?

Die Entwicklung selbstlernender Künstlicher Intelligenz

An dieser Stelle ist es bestimmt durchaus sinnvoll die ersten Schritte nachzuzeichnen, die der Kollektiv-Sorge der Forscher, Wissenschaftler, Politiker und Unternehmer zugrunde liegt. Ein gutes Beispiel dazu ist die Studie der künstlichen Intelligenzschmiede Deepmind, aus dem Hause Google. Hier ist einer Handvoll Wissenschaftler in London aufgetragen, der Künstlichen Intelligenz menschliche und kognitive Verhaltensmuster beizubringen. Dafür bedarf es eines lückenlosen Trainings, das keine menschlichen Fehler beinhalten darf. Ein Tippfehler auf einer Lernkarte, z. B. das Bild eines Hundes mit der schriftlichen Information „Hnd“, statt „Hund“, würde zu weiteren Fehlermaschen im Prozess führen. Da künstliche Intelligenz einen Fehler nicht erkennt, würde die KI „Hnd“ zunächst als Hund im neuronalen Netzwerk abspeichern und fortan als solchen erkennen.

Solche fehlerhaften Assoziationen wird eine KI zukünftig selbst durch Trial und Error beheben können, so wie Kinder durch Trial und Error die richtige Aussprache und Assoziation von Wort und Objekt erlernen.

Gathering: Apple Wars

Zurück zur Deepmind-Studie: In diesem Versuch werden zwei KI gegeneinander positioniert, um das Sozialverhalten rivalisierender Computerintelligenzen zu studieren. Dazu werden zwei KI-Agenten in ein Videospiel namens „Gathering“ eingepflanzt, erklären die federführenden Wissenschaftler der neusten Google-Studie „Gathering“: Multi-agent Reinforcement Learning in Sequential Social Dilemmas. (Zu Deutsch etwa „Die Sammler“: Verstärkte Lernszenarien von Multi-Agenten innerhalb sequenziellen sozialen Dilemmas.)

KI Artikel DeepMind

Die Intelligenzen müssen in dem Spiel so viele virtuelle Äpfel wie möglich sammeln. Im Spielverlauf ändert sich die Anzahl der verfügbaren Äpfel – entweder es gibt einen Apfelüberfluss oder die Computer müssen sich um den letzten Apfel streiten. Um das Verhalten der KI-Agenten ausreichend zu studieren, haben die Forscher die Maschinen 40 Millionen Spielrunden antreten lassen.

KI kann sich opportunistisch und aggressiv zeigen

Das Resultat der Studie zeigt auf, dass die Agenten ihr Sozialverhalten opportunistisch ausrichten. Waren genug Ressourcen vorhanden, waren die rivalisierenden Agenten friedlich und kamen sich nicht in die Quere. Beide KI horteten parallel und fleißig ihre Äpfel. 

Die KI änderte jedoch ihre Strategie von ‚kooperativ' auf ‚aggressiv‘, wenn sie den Eindruck hatte, dass der Apfelvorrat schrumpft. So wurde die gegnerische KI mit Laserstrahlen beschossen und für kurze Zeit außer Gefecht gesetzt, um der Gegner-KI die Äpfel zu stehlen.

Äußerst interessant ist dabei, dass die Roboter die Wahl bekommen haben, die Laserkanone nicht zu benutzen, was letztlich zu einer friedlichen und gleichmäßigen Verteilung der Äpfel geführt hätte. Trotz der programmierten Alternative hat sich die KI in manchen Spielrunden selbstständig für die aggressive Methode entschieden. Google beschreibt diese als „weniger intelligente" Spielzüge. 

„Das Gathering-Spiel sagt voraus, dass aus der Konkurrenz um knappe Ressourcen ein Konflikt entstehen kann, aber weniger wahrscheinlich entsteht, wenn Ressourcen im Überfluss vorhanden sind", schreiben die Google-Forscher in ihrem Paper. Damit könne gezeigt werden, dass auch das gelernte Verhalten bei KI von deren Umgebung und Umweltfaktoren abhängig ist. Würde dies wiederum bedeuten, dass die KI in einem Kriegsumfeld umso aggressiver und gewaltbereiter werden würde und daher der offene Brief an die Vereinten Nationen formuliert wurde?

Google sagt, dass die KI in diesem Szenario bewusst als egoistische und rationale Akteure vorbereitet wurden. Die Analogie zum menschlichen Verhalten ist in der Studie also gewollt.

Wehret den Anfängen: Eine Frage der Ethik

Die Studienergebnisse zeigen wie lern- und anpassungsfähig intelligente Programme geworden sind und wie schnell diese bereits in vorprogrammierten Szenarien menschliches Verhalten reproduzieren können. Die Gefahr einer aggressiven, gewaltbereiten KI wird in der Studie relativ deutlich herausgestellt, doch weitaus interessanter wird die Frage: was passiert mit einer KI, die in falsche Hände gerät. Die Google-Studie zeigt nämlich wie Menschen der Künstlichen Intelligenz gewaltbereites und aggressives Verhalten beibringen – und diese sich darauf basierend stets für die opportunistische Variante ihrer Programmierung entscheiden wird. Es ist schließlich eine Maschine, die weder Menschenverstand noch emotionale Qualitäten besitzt. Was ist also aus dem offenen Brief an die Vereinten Nationen geworden?

Autor: DR

Verwandte Artikel
Diskutieren Sie über diesen Artikel
Required for comment verification
0 Kommentare