Suchen und Finden

Titel

Autor

Inhaltsverzeichnis

Nur ebooks mit Firmenlizenz anzeigen:

 

Human Compatible - Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält

Human Compatible - Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält

Stuart Russell

 

Verlag mitp Verlags GmbH & Co. KG, 2020

ISBN 9783747501740 , 378 Seiten

Format PDF, OL

Kopierschutz frei

Geräte

24,99 EUR

Für Firmen: Nutzung über Internet und Intranet (ab 2 Exemplaren) freigegeben

Derzeit können über den Shop maximal 500 Exemplare bestellt werden. Benötigen Sie mehr Exemplare, nehmen Sie bitte Kontakt mit uns auf.

Mehr zum Inhalt

Human Compatible - Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält


 

Kapitel 1:
Wenn wir Erfolg haben


Vor längerer Zeit lebten meine Eltern im englischen Birmingham in einem Haus in der Nähe der Universität. Sie entschieden sich, von der Stadt aufs Land zu ziehen, und verkauften das Haus an David Lodge, einen Professor für englische Literatur. Lodge war zu jener Zeit ein bekannter Romanautor. Ich habe ihn zwar nie persönlich kennengelernt, entschloss mich aber, einige seiner Werke zu lesen: Ortswechsel (Originaltitel: Changing Places) und Schnitzeljagd (Originaltitel: Small World). Zu den Hauptakteuren gehören fiktionale Akademiker, die aus einem fiktionalen Birmingham in ein fiktionales Berkeley in Kalifornien ziehen. Da ich ein echter Akademiker aus dem echten Birmingham bin, der gerade ins echte Berkeley gezogen war, rief mich das Ministerium für Zufälle offenbar dazu auf, genauer hinzusehen.

Eine Szene aus Schnitzeljagd hat es mir besonders angetan: Der Protagonist, ein aufstrebender Literaturtheoretiker, besucht eine internationale Konferenz und fragt ein hochkarätig besetztes Podium: »Was geschieht, wenn alle Ihnen zustimmen?« Die Frage sorgt für Verblüffung, denn es ging den Diskutanten mehr um den geistigen Schlagabtausch und weniger um Wahrheitsfindung oder Erkenntnisgewinn. In dem Moment wurde mir klar, dass man den führenden Persönlichkeiten in der KI eine ganz ähnliche Frage stellen könnte: »Was, wenn Sie Erfolg haben?« Diese Disziplin hat sich stets das Ziel gesetzt, eine KI mit menschlichen oder gar übermenschlichen Fähigkeiten zu erschaffen. Was für Folgen das haben würde, hat man sich allerdings nur selten oder gar nicht gefragt.

Ein paar Jahre später begannen Peter Norvig und ich mit der Arbeit an einem neuen KI-Lehrbuch, das erstmals 1995 veröffentlicht wurde.1 Der letzte Abschnitt mit dem Titel »What If We Do Succeed?« (Was, wenn wir Erfolg haben?) weist auf mögliche positive und negative Folgen hin, ohne ein eindeutiges Fazit zu ziehen. Als 2010 die dritte Auflage erschien, waren viele Menschen zu dem Schluss gekommen, dass eine übermenschliche KI vielleicht gar keine so gute Sache wäre. Allerdings waren die meisten von ihnen eher fachfremd und gehörten nicht zum Mainstream der KI-Forscher. 2013 war ich inzwischen davon überzeugt, dass dieses Thema nicht nur mitten in die KI-Forschung gehört, sondern möglicherweise die wichtigste Frage für die gesamte Menschheit darstellt.

Im November 2013 hielt ich einen Vortrag in der Dulwich Picture Gallery, einem ehrwürdigen Kunstmuseum im Süden Londons. Das Publikum bestand größtenteils aus interessierten Seniorinnen und Senioren ohne wissenschaftliche Vorbildung. Ich musste bei meinem Vortrag also komplett auf technische Fachbegriffe verzichten. Das war eine hervorragende Gelegenheit, meine Überlegungen erstmals in der Öffentlichkeit zu präsentieren. Nachdem ich erklärt hatte, worum es bei KI geht, nominierte ich fünf Kandidaten für das »größte Ereignis in der Zukunft der Menschheit«:

  1. Wir sterben aus (Asteroidenaufprall, Klimakatastrophe, Pandemie usw.).

  2. Wir leben ewig (medizinische Lösung gegen das Altern).

  3. Wir finden eine Möglichkeit, schneller als das Licht zu reisen, und erobern das Universum.

  4. Wir erhalten Besuch von einer uns überlegenen außerirdischen Zivilisation.

  5. Wir erfinden eine superintelligente KI.

Ich votierte für die fünfte Option, die superintelligente KI, denn diese würde uns helfen, (Natur-)Katastrophen zu vermeiden, den Schlüssel zum ewigen Leben zu finden und schneller als das Licht zu reisen – sofern das überhaupt möglich ist. Das wäre wirklich ein gewaltiger Sprung für unsere Zivilisation. Danach wäre nichts mehr wie zuvor. Eine superintelligente KI würde in vielen Punkten der Ankunft einer überlegenen Alien-Rasse ähneln, ist aber sehr viel wahrscheinlicher. Und was noch wichtiger ist: Bei der KI haben wir ein Wörtchen mitzureden, bei den Außerirdischen wohl eher nicht …

Dann fragte ich das Publikum, was wohl geschehen würde, wenn wir heute eine Botschaft von Außerirdischen erhielten, die deren Ankunft auf der Erde in 30 Jahren ankündigt. Das Wort »Hölle« dürfte für das zu erwartende Chaos kaum ausreichen. Unsere Reaktion auf die zu erwartende Ankunft von superintelligenter KI fällt dagegen mehr als verhalten aus. (In einem späteren Vortrag habe ich das durch den in Abbildung 1.1 dargestellten E-Mail-Austausch verdeutlicht.) Abschließend habe ich die Bedeutung einer superintelligenten KI wie folgt erklärt: »Ein Erfolg wäre das größte Ereignis in der Menschheitsgeschichte … aber vielleicht auch das letzte.«

Abb. 1.1: Vermutlich nicht die Antwort, die wir einer überlegenen Zivilisation von Außerirdischen nach deren Kontaktaufnahme senden würden

Ein paar Monate später, im April 2014, besuchte ich eine Konferenz in Island. National Public Radio rief mich an und bat um ein Interview zum gerade in den Vereinigten Staaten gestarteten Kinofilm Transcendence. Ich hatte zwar Zusammenfassungen der Handlung und auch einige Kritiken gelesen, den Film aber nicht gesehen, denn in meiner damaligen Wahlheimat Paris sollte er erst im Juni in die Kinos kommen. Allerdings flog ich auf dem Rückweg erst nach Boston, da ich dort an einer Besprechung des Verteidigungsministeriums teilnehmen wollte. Nach meiner Ankunft am Bostoner Logan Airport nahm ich ein Taxi zum nächsten Kino, in dem der Film lief. In der zweiten Reihe sitzend, verfolgte ich, wie ein von Johnny Depp gespielter KI-Professor der Uni Berkeley von fanatischen KI-Skeptikern niedergeschossen wird, die sich vor einer superintelligenten KI fürchten. Unwillkürlich sank ich in meinem Sitz zusammen. (Hatte sich hier wieder einmal das Ministerium für Zufälle bei mir gemeldet?) Bevor der von Johnny Depp gespielte Wissenschaftler stirbt, wird sein Geist in einen Quanten-Supercomputer übertragen, übertrifft bald die menschlichen Fähigkeiten und droht, die Weltherrschaft an sich zu reißen.

Am 19. April 2014 erschien in der Huffington Post eine von den Physikern Max Tegmark, Frank Wilczek und Stephen Hawking gemeinsam verfasste Besprechung zu Transcendence. Sie enthielt den Satz über das größte Ereignis in der Menschheitsgeschichte, den ich in meiner Rede in Dulwich verwendet hatte. Seither gelte ich in der Öffentlichkeit als der Forscher, der sein eigenes Forschungsgebiet für eine potenzielle Gefahr für uns als Spezies hält.

Was bisher geschah …


Die Anfänge der KI reichen zurück bis in die Antike, aber der »offizielle« Startschuss fiel 1956. Die beiden jungen Mathematiker John McCarthy und Marvin Minsky hatten den bereits als Erfinder der Informationstheorie berühmt gewordenen Claude Shannon sowie Nathaniel Rochester, den Entwickler des ersten kommerziellen Computers von IBM, dazu überredet, mit ihnen gemeinsam eine Sommerschule am Dartmouth College zu organisieren. Das Ziel wurde wie folgt beschrieben:

»Die Studie soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine dazu gebracht werden kann, sie zu simulieren. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen und Begriffe zu bilden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten sind, und sich selbst zu verbessern. Wir denken, dass ein bedeutender Fortschritt auf einem oder mehreren dieser Gebiete erzielt werden kann, wenn eine sorgfältig ausgewählte Gruppe von Wissenschaftlern einen Sommer lang zusammen daran arbeitet.«

Wir wissen heute, dass der Sommer nicht ausgereicht hat. Tatsächlich arbeiten wir noch heute an all diesen Problemen.

Im ersten Jahrzehnt nach der Dartmouth-Konferenz konnte die KI mehrere große Erfolge verbuchen, darunter den Algorithmus von Alan Robinson für allgemeine logische Schlussfolgerungen2 und das Dameprogramm von Arthur Samuel, das sich selbst beibrachte, seinen Schöpfer zu schlagen.3 Die erste KI-Blase platzte in den späten 1960er-Jahren, da frühe Bemühungen in den Bereichen Machine Learning und maschinelle Übersetzung die in sie gesetzten Erwartungen nicht erfüllten. Ein von der britischen Regierung 1973 in Auftrag gegebener Bericht kam zu folgendem Schluss: »In keinem Bereich des Forschungsgebiets haben die bisherigen Entdeckungen zu den versprochenen gewaltigen Auswirkungen geführt.«4 Anders ausgedrückt: Die Maschinen waren einfach nicht klug genug.

Mit meinen elf Jahren kannte ich diesen Bericht zum Glück nicht. Als ich zwei Jahre später den programmierbaren Taschenrechner Sinclair Cambridge bekam, wollte ich ihn intelligent machen. Leider konnten Programme für das Gerät maximal 36 Zeichen umfassen, was für KI auf menschlichem Level nicht ausreicht. Das konnte mich nicht aufhalten. Nachdem ich Zugang zu dem riesigen Supercomputer CDC 66005 am Imperial College London bekommen hatte, schrieb ich ein Schachprogramm: einen 60 cm hohen Lochkartenstapel. Das Programm selbst war nicht besonders gut, aber das war nicht wichtig. Ich kannte jetzt meine Bestimmung.

Mitte der 1980er war ich Professor in Berkeley und die KI war wieder im Kommen – dank des kommerziellen Potenzials der sogenannten Expertensysteme. Die zweite KI-Blase platzte, als sich diese Systeme für viele der Aufgaben, die sie...