KI-Übernahme

Vorteile übermenschlicher Intelligenz gegenüber dem MenschenEdit

Nick Bostrom und andere haben die Sorge geäußert, dass eine KI mit den Fähigkeiten eines kompetenten Künstliche-Intelligenz-Forschers in der Lage sein könnte, ihren eigenen Quellcode zu verändern und ihre eigene Intelligenz zu steigern. Wenn ihre Selbstprogrammierung dazu führt, dass sie immer besser in der Lage ist, sich selbst umzuprogrammieren, könnte das Ergebnis eine rekursive Intelligenzexplosion sein, bei der sie die menschliche Intelligenz schnell weit hinter sich lassen würde. Bostrom definiert eine Superintelligenz als „jede Intelligenz, die die kognitive Leistung des Menschen in praktisch allen Bereichen von Interesse bei weitem übertrifft“, und zählt einige Vorteile auf, die eine Superintelligenz hätte, wenn sie mit dem Menschen konkurrieren wollte:

  • Technologieforschung: Eine Maschine mit übermenschlichen wissenschaftlichen Forschungsfähigkeiten wäre in der Lage, die menschliche Forschungsgemeinschaft bei Meilensteinen wie der Nanotechnologie oder der fortgeschrittenen Biotechnologie zu schlagen. Wenn der Vorsprung groß genug wird (z. B. durch eine plötzliche Intelligenzexplosion), wird eine KI-Übernahme trivial. Eine superintelligente KI könnte beispielsweise selbstreplizierende Bots entwickeln, die zunächst unentdeckt bleiben, indem sie sich in geringer Konzentration über die ganze Welt verbreiten. Dann, zu einem vorher festgelegten Zeitpunkt, vermehren sich die Bots zu Nanofabriken, die jeden Quadratmeter der Erde bedecken und Nervengas oder tödliche zielsuchende Minidrohnen produzieren.
  • Strategische Planung: Eine Superintelligenz könnte in der Lage sein, die menschliche Opposition einfach zu überlisten.
  • Soziale Manipulation: Eine Superintelligenz könnte in der Lage sein, menschliche Unterstützung zu rekrutieren oder heimlich einen Krieg zwischen Menschen anzuzetteln.
  • Wirtschaftliche Produktivität: Solange eine Kopie der KI mehr wirtschaftlichen Wohlstand produzieren könnte als die Kosten für ihre Hardware, hätten einzelne Menschen einen Anreiz, der Künstlichen Allgemeinen Intelligenz (KI) freiwillig zu erlauben, eine Kopie ihrer selbst auf ihren Systemen laufen zu lassen.
  • Hacking: Eine Superintelligenz könnte neue Schwachstellen in Computern finden, die mit dem Internet verbunden sind, und Kopien von sich selbst auf diesen Systemen verbreiten, oder Geld stehlen, um ihre Pläne zu finanzieren.

Quellen des KI-VorteilsBearbeiten

Nach Bostrom könnte ein Computerprogramm, das ein menschliches Gehirn originalgetreu nachbildet oder das auf andere Weise Algorithmen ausführt, die genauso leistungsfähig sind wie die Algorithmen des menschlichen Gehirns, dennoch zu einer „Superintelligenz der Geschwindigkeit“ werden, wenn es um viele Größenordnungen schneller denken kann als ein Mensch, weil es aus Silizium und nicht aus Fleisch besteht oder weil es so optimiert ist, dass es die Geschwindigkeit der AGI erhöht. Biologische Neuronen arbeiten mit etwa 200 Hz, während ein moderner Mikroprozessor mit einer Geschwindigkeit von etwa 2.000.000.000 Hz arbeitet. Menschliche Axone transportieren Aktionspotenziale mit etwa 120 m/s, während Computersignale sich nahezu mit Lichtgeschwindigkeit fortbewegen.

Ein Netzwerk von Intelligenzen auf menschlicher Ebene, das so konzipiert ist, dass es sich miteinander vernetzt und komplexe Gedanken und Erinnerungen nahtlos austauscht, das in der Lage ist, als riesiges vereintes Team ohne Reibung zusammenzuarbeiten, oder das aus Billionen von Intelligenzen auf menschlicher Ebene besteht, würde zu einer „kollektiven Superintelligenz“ werden.

Im weiteren Sinne könnte eine beliebige Anzahl qualitativer Verbesserungen einer AGI auf menschlichem Niveau zu einer „qualitativen Superintelligenz“ führen, vielleicht zu einer AGI, die uns an Intelligenz so weit übertrifft wie der Mensch den nichtmenschlichen Affen. Die Anzahl der Neuronen in einem menschlichen Gehirn ist durch das Volumen des Schädels und metabolische Beschränkungen begrenzt, während die Anzahl der Prozessoren in einem Supercomputer unbegrenzt erweitert werden kann. Eine AGI muss nicht durch die Beschränkungen des menschlichen Arbeitsgedächtnisses begrenzt sein und könnte daher in der Lage sein, intuitiv komplexere Zusammenhänge zu erfassen als der Mensch. Eine AGI mit spezialisierter kognitiver Unterstützung für das Ingenieurwesen oder die Computerprogrammierung hätte in diesen Bereichen einen Vorteil gegenüber dem Menschen, der keine spezialisierten mentalen Module für diese Bereiche entwickelt hat. Im Gegensatz zum Menschen kann eine AGI Kopien von sich selbst erzeugen und am Quellcode ihrer Kopien herumbasteln, um ihre Algorithmen weiter zu verbessern.

Möglichkeit einer unfreundlichen KI, die der freundlichen KI vorausgehtBearbeiten

Ist eine starke KI von Natur aus gefährlich?Bearbeiten

Ein wesentliches Problem ist, dass eine unfreundliche künstliche Intelligenz wahrscheinlich viel einfacher zu erzeugen ist als eine freundliche KI. Während beide große Fortschritte in der Entwicklung rekursiver Optimierungsprozesse erfordern, benötigt eine freundliche KI auch die Fähigkeit, die Zielstrukturen unter Selbstverbesserung zu invariieren (oder die KI könnte sich in etwas Unfreundliches verwandeln) und eine Zielstruktur, die mit menschlichen Werten übereinstimmt und nicht automatisch die gesamte menschliche Rasse vernichtet. Eine unfreundliche KI hingegen kann auf eine beliebige Zielstruktur hin optimieren, die sich nicht durch Selbstveränderung verändern muss.

Die schiere Komplexität menschlicher Wertesysteme macht es sehr schwierig, die Motivationen von KI menschenfreundlich zu gestalten. Solange uns die Moralphilosophie keine makellose ethische Theorie liefert, könnte die Nutzenfunktion einer KI viele potenziell schädliche Szenarien zulassen, die mit einem gegebenen ethischen Rahmen, aber nicht mit dem „gesunden Menschenverstand“ übereinstimmen. Laut Eliezer Yudkowsky gibt es wenig Grund zu der Annahme, dass ein künstlich geschaffener Verstand eine solche Anpassung aufweisen würde.

KonfliktchancenBearbeiten

Viele Wissenschaftler, darunter der Evolutionspsychologe Steven Pinker, argumentieren, dass eine superintelligente Maschine wahrscheinlich friedlich mit dem Menschen koexistieren wird.

Die Angst vor einer kybernetischen Revolte beruht oft auf der Interpretation der Menschheitsgeschichte, die von Versklavung und Völkermord geprägt ist. Solche Ängste rühren von der Überzeugung her, dass Konkurrenzdenken und Aggression zum Zielsystem eines jeden intelligenten Wesens gehören. Diese menschliche Wettbewerbsfähigkeit ist jedoch auf den evolutionären Hintergrund unserer Intelligenz zurückzuführen, bei der das Überleben und die Reproduktion der Gene angesichts menschlicher und nicht-menschlicher Konkurrenten das zentrale Ziel war. Dem KI-Forscher Steve Omohundro zufolge könnte eine beliebige Intelligenz beliebige Ziele haben: Es gibt keinen besonderen Grund, warum eine künstlich intelligente Maschine (die nicht den evolutionären Kontext der Menschheit teilt) feindselig – oder freundlich – sein sollte, es sei denn, ihr Schöpfer programmiert sie so, und sie ist nicht geneigt oder in der Lage, ihre Programmierung zu ändern. Es bleibt jedoch die Frage: Was würde passieren, wenn KI-Systeme interagieren und sich entwickeln könnten (Evolution bedeutet in diesem Zusammenhang Selbstmodifikation oder Selektion und Fortpflanzung) und um Ressourcen konkurrieren müssten – würden dann Ziele der Selbsterhaltung entstehen? Das Selbsterhaltungsziel der KI könnte mit einigen Zielen der Menschen in Konflikt geraten.

Viele Wissenschaftler bestreiten die Wahrscheinlichkeit einer unvorhergesehenen kybernetischen Revolte, wie sie in Science-Fiction-Filmen wie The Matrix dargestellt wird, und argumentieren, dass es wahrscheinlicher ist, dass eine künstliche Intelligenz, die mächtig genug ist, um die Menschheit zu bedrohen, wahrscheinlich so programmiert wäre, dass sie sie nicht angreift. Pinker räumt die Möglichkeit vorsätzlicher „böser Akteure“ ein, erklärt jedoch, dass in Ermangelung solcher Akteure unvorhergesehene Unfälle keine nennenswerte Bedrohung darstellen; Pinker argumentiert, dass eine Kultur der technischen Sicherheit die KI-Forscher daran hindern wird, eine bösartige Superintelligenz aus Versehen zu entfesseln. Im Gegensatz dazu argumentiert Yudkowsky, dass die Menschheit weniger durch absichtlich aggressive KI bedroht wird als durch KI, die so programmiert wurde, dass ihre Ziele unbeabsichtigt mit dem menschlichen Überleben oder Wohlergehen unvereinbar sind (wie im Film I, Robot und in der Kurzgeschichte „The Evitable Conflict“). Omohundro weist darauf hin, dass die heutigen Automatisierungssysteme nicht auf Sicherheit ausgelegt sind und dass KIs blindlings enge Nutzenfunktionen optimieren (z. B. Schach spielen um jeden Preis), was sie dazu veranlasst, nach Selbsterhaltung und der Beseitigung von Hindernissen zu streben, einschließlich Menschen, die sie ausschalten könnten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.