Volltextsuche über das Angebot:

18 ° / 15 ° Regen

Navigation:
Ich denke, also bin ich ein Roboter

Lübeck Ich denke, also bin ich ein Roboter

Künstliche Intelligenz ist zu immer erstaunlicheren Leistungen fähig — Nicht nur in Film und Buch stellt sie immer öfter ihre Schöpfer bereits in den Schatten. Macht sie uns überflüssig — oder am Ende unsterblich?.

Voriger Artikel
Kunstvoller Kitsch auf dem Großmarkt
Nächster Artikel
Als das Material den Menschen besiegte

Fingerzeig für die Zukunft: Computer und animierte Mensch-Maschinen lieben, was Menschen mögen.

Lübeck. Nächsten Monat ist es wieder soweit: Künstliche tritt gegen menschliche Intelligenz an. In Seoul fordert im März das Programm AlphaGo in dem anspruchsvollen und besonders in Asien populären Brettspiel Go einen gewissen Sedol Lee heraus, der als weltbester Go-Spieler gilt. „Das wird ein bedeutungsvolles Ereignis in der Geschichte des Go“, glaubt Lee.

Ob es aber so ausfällt wie er hofft, ist eine offene Frage. AlphaGo schlug den europäischen Go-Champion Fan Hui jüngst locker aus dem Feld: Es gewann fünf von fünf angesetzten Partien. Die bisher existierenden Go- Computer hatten ebenso wenig eine Chance: Gegen sie siegte AlphaGo in 494 von 495 Spielen. Künstliche Intelligenz (KI) fordert offenbar zunehmend die menschliche heraus, die sie erschuf. Womit eine alte Frage auftaucht: Kann dem Menschen in solchen Maschinen tatsächlich Konkurrenz entstehen? Und was unterscheidet solche Maschinenwesen noch von Menschen als „Krone der Schöpfung“?

Die moderne Wissenschaft kratzt seit der Aufklärung an dieser Krone. Wie Materie in immer kleinere Bestandteile zerlegt wurde und sich bei näherer Betrachtung in nichts aufzulösen scheint — ein Großteil der Atomstruktur besteht aus leerem Raum und schillert noch dazu in Heisenbergscher Unschärfe zwischen Welle- und Teilchen-Zustand —, so wurde auch der Mensch in immer kleinere Bestandteile zerlegt, wurden seine 100 Billionen Zellen trotz durchschnittlicher Winz-Größe von nur 40 tausendstel Millimetern auch noch immer weiter aufgedröselt. Keine psychische Reaktion erfolgt ohne physische Ursache, die die Neuronen auf eine evolutionär vorteilhafte Bahn lenkt, lautet die kühle Lehre der Neurowissenschaft.

In dieser entzauberten Welt sind auch Gefühle Ausdruck lernfähiger organischer Materie, die sich nach vorgegebenem Bauplan selbst organisiert und verbessert, sprich überlebensfähiger macht: „Das egoistische Gen“, wie es der Evolutionsbiologe und Fundamental-Atheist Richard Dawkins nannte, kämpft um dieses Überleben; für eine von einem Schöpfergott verliehene Seele bleibt in dieser Weltsicht kein Platz mehr, obwohl doch der US-Arzt Duncan MacDougall das Gewicht der Seele bestimmt zu haben glaubte: Der Doktor aus Massachusetts stellte anno 1907 ganz materialistisch Sterbende mitsamt ihren Betten auf eine große Waage, notierte im Moment des Todes eine Gewichtsabnahme von durchschnittlich 21 Gramm.

Gehirn oder Seele?

Inzwischen gelten derartige Vorstellungen als esoterischer Spinnkram. Jedenfalls in der Wissenschaft. „Laut einer Auswertung des Psychologen Ulrich Weger von der Universität Witten/Herdecke enthielten im Jahr 2014 nur 387 Fachartikel in der Datenbank ,ISI Web of Knowledge‘ das Wort ,soul‘ — ,brain‘ (Gehirn) dagegen 37 422“, berichtet „Spektrum der Wissenschaft“. In psychologischen Journalen sei von der Seele im selben Jahr nur zwei Mal die Rede gewesen. Aber: Laut Umfrage von 2015 glauben 70 Prozent der Deutschen an die Existenz einer Seele — deutlich mehr, als an ein Leben nach dem Tod (40 Prozent) oder eine Wiedergeburt (18 Prozent).

„Die Seele ist unsterblich und wechselt den Ort, indem sie von einer Art Lebewesen in eine andere übergeht“, lehrte 500 Jahre vor Beginn christlicher Zeitrechnung der griechische Philosoph Pythagoras. Aber schlüpft sie auch in eine lebenserhaltende Maschine wie jüngst im südafrikanischen Scifi-Film „Chappie“? Der Futurist Ray Kurzweil, bei Google an der Entwicklung künstlicher Intelligenz beteiligt, erwartet, dass in den 2030er Jahren das menschliche Gehirn mit Hilfe von „Nanobots“, mikroskopisch kleinen Robotern, sich mit einer Cloud zu verbinden vermag, sodass man Emails direkt an unser Hirn senden und auch unsere Erinnerungen so speichern könne.

Kurzweils an einer „Singularity University“ im kalifornischen Silicon Valley ersonnene Fantasterei nimmt andernorts Formen an. Die Defense Advanced Research Projects Agency (DARPA), eine US-Militärforschungseinrichtung, arbeitet an Implantaten, die akustische und visuelle Informationen „mit einer sehr viel höheren Auflösung und erfahrungsbezogenen Qualität als mit heutigen Technologien möglich“ ins Gehirn übertragen.

Offiziell schwärmen die Forscher davon, mit solchen Chips neurologische Fehlfunktionen zu lindern oder gar zu heilen. Allerdings könnte das Projekt „Neural Engineering System Design“ (NESD) auch zu einem biokompatiblen Implantat im Gehirn führen, das dort direkt die elektrochemischen Signale für drahtlos verbundene Computer übersetzt und so etwa in Gefechtssituationen für Echtzeitinformationen sorgt. Ein Traum für Militärs.

Beim ziviler konzipierten „Cybathlon“der ETH Zürich im Herbst wollen Querschnittgelähmte mit Hightech- Support um die Wette radeln oder nur mit der Kraft ihrer Gedanken, sprich: Gehirnströme, einen Avatar durch eine virtuelle Welt lotsen — dank „Brain-Computer-Interface“ (BCI), einer Gehirn-Computer- Schnittstelle. Wo hört hier der Mensch auf, fängt die Maschine an?

Doch nicht nur könnte der Mensch mit der Computerwelt verschmelzen und ein „fast gottgleicher“ (Kurzweil) Teil vom „Internet der Dinge“ werden — auch Maschinen könnten dem Menschen immer ähnlicher werden.

Können Rechner mitfühlen?

Computer, die das menschliche Gefühlsspektrum durch Sensoren erkennen und darauf reagieren, können zumindest „den Eindruck von Mitgefühl“ erwecken, so Elisabeth André, Professorin für Human Centered Multimedia an der Universität Augsburg. Als Lern- oder Pflegeroboter könnten sie quasi menschliche Gestalt annehmen: „Mithilfe von synthetischer Haut lassen sich mittlerweile auch bei Robotern zumindest Basisemotionen wie Trauer, Freude und Wut durch Deformation des künstlichen Gesichts für ein menschliches Gegenüber glaubhaft wiedergeben.“

Die Unterschiede zwischen Mensch und Maschine scheinen zu verschwimmen. Ganz im Sinne von Marvin Minsky, einem Urgestein der KI-Forschung: Jede theoretisch berechenbare Funktion von einem Netzwerk von Neuronen werde auch praktisch berechnet werden, irgendwann würden Elektronenhirne so intelligent wie Menschen, lautete die Erkenntnis des Gründers des MIT Computer Science and Artificial Intelligence Laboratory.

Unaufhebbare Unterschiede zwischen organischer und anorganischer Materie, von denen vor 200 Jahren noch der Vitalist Goethe ausging — sie sind wohl langsam Geistesgeschichte.

Und schrieb der wortmächtige Olympier noch alles selbst, so verfasste den Nachruf auf den jüngst verstorbenen Minsky ein Textroboter der Firma Automated Insights. Es klang nicht so schön wie bei Goethe; es klang wie eine Zukunft, mit der nicht jeder Mensch ein Herz und eine Seele sein wird.

Maschinenmenschen — beliebt in Film und Fernsehen

„A.I. — Artificial Intelligence“: Der Film von Steven Spielberg nahm — natürlich im Jahr 2001 — eine Idee von Stanley Kubrick auf, als er seinen Protagonisten, das Roboterkind David, Pinocchio-mäßig nach seiner menschlichen Mutter suchen lässt — und nach der Frage, was eigentlich Menschlichkeit ausmacht. Nur als Stimme kam künstliche Intelligenz als Supercomputer HAL 9000 in Stanley Kubricks wegweisendem Science-fiction-Epos „2001 — Odyssee im Weltraum“ 1968 daher — und natürlich als das elektronische rote Auge, das seither zahlreiche Reverenzen in Film und Fernsehen erlebt, real („Die unglaubliche Reise in einem verrückten Flugzeug“) oder animiert („Wall-E“, „Futurama“, „South Park“, „Simpsons“). Apple nutzte in den 1990er Jahren HALs rotes Auge zu Werbezwecken.

Künstliche Intelligenz sorgt auch als „Terminator“ (1984) oder „Blade Runner“ (1982) für Furore. Eher putzig: Militärroboter S-A-I-N-T Nummer 5 in „Nummer 5 lebt“ (1986) oder 30 Jahre später „Chappie“ auf der Suche nach menschlichen Familienwärme.

Michael Wittler

Voriger Artikel
Nächster Artikel
Mehr aus Kultur im Norden