Künstliche Intelligenz, Bewusstsein und die Möglichkeiten des Quantencomputers

Im letzten Aufsatz habe ich dargelegt, dass eine Reise zu einem relativ nahen Stern bei vernünftigem Energieeinsatz zu lange benötigt, dass ein Mensch sie in einer Lebenszeit erfahren kann. Wenn wir schon nicht zu den Sternen reisen können, wie sehen dann die Wesen aus, die es können? Nun, es gibt sie schon. Wir stellen sie her und schicken sie bereits auf Missionen zur Erforschung des Sonnensystems. Sie landen auf dem Mars, fliegen zum Pluto und erforschen Asteroiden. Zwei von ihnen sind gerade dabei, das Sonnensystem zu verlassen: die 1977 gestarteten Raumsonden Voyager 1 und 2.

Maschinen sind ideal für die Weltraumfahrt. Sie können ihre Energie direkt von der Sonne oder von kleinen Atomkraftwerken empfangen. Sie benötigen keine Luft zum Atmen, sie funktionieren in einem breiten Temperaturspektrum, und sie können hohe Beschleunigung und Strahlung aushalten. Das wichtigste jedoch ist, dass sie bei entsprechender Wartung keine Lebenszeitbegrenzung haben. Alles, was ihnen fehlt, ist Intelligenz, um autonom handeln zu können. Doch was ist Intelligenz überhaupt?

Ich gehe einmal sehr naiv an die Frage heran: War Albert Einstein intelligent? Viele Menschen würden hierauf antworten, dass er nicht nur intelligent sondern auch ein Genie war. Und warum? Wenn man genau nachforscht, dann lag die Formulierung der Speziellen Relativitätstheorie Anfang des 20. Jahrhunderts geradezu in der Luft. Einstein baute auf der jahrzehntelangen Arbeit seiner Kollegen Hendrik Antoon Lorentz und Henri Poincaré auf. Seine besondere Leistung war, das scheinbar unlösbare Problem seiner Kollegen deduktiv zu analysieren und eine Lösung im Stile Sherlock Holmes zu finden: Wenn man das Unmögliche ausgeschlossen hat, muss das, was übrig bleibt, die Wahrheit sein, so unwahrscheinlich sie auch klingen mag. Wenn die Lichtgeschwindigkeit eine Konstante ist und es keinen Lichtäther gibt, dann müssen Raum und Zeit in relativ zueinander bewegten Systemen veränderlich sein, so sehr dies auch unserer alltäglichen Erfahrung widersprechen mag. Mit seiner Allgemeinen Relativitätstheorie, die er 1915 veröffentlichte, ging Einstein noch einen Schritt weiter und erweiterte die Spezielle Relativitätstheorie auf beschleunigte Systeme. Damit erklärte er die Wechselwirkungen von Materie, Raum und Zeit. Mit der Allgemeinen Relativitätstheorie konnte er nachweisen, dass Gravitation die Raumzeit krümmt und selbst Lichtstrahlen durch Gravitation abgelenkt werden. Seine Leistung ist deswegen so herausragend, weil er sich dieses Naturgesetz vollkommen theoretisch erschlossen hat. Erst 1919 konnte bei einer Sonnenfinsternis nachgewiesen werden, dass sich die Natur tatsächlich so verhält, wie Einstein es berechnet hatte. In der Tat wurden die Lichtstrahlen von Sternen, die hinter der Sonne lagen, leicht vom Gravitationsfeld der Sonne abgelenkt. Dies ist ein exzellentes Beispiel für deduktives Denken, also von einer allgemeinen Regel auf ein besonderes Verhalten der Natur zu schließen. Um die Frage nach der Intelligenz von Albert Einstein zu beantworten: Ja, ich denke, er war intelligent und gebildet. Dazu war er zum richtigen Zeitpunkt an der richtigen Stelle, um von seinen Mitmenschen ein Genie genannt zu werden.

Auch der Lichtäther, eine Art Medium, in dem sich Licht und elektromagnetische Wellen ausbreiten, war der Versuch, eine allgemeine Theorie aufzustellen, mit der man die Eigenschaften des Lichtes beschreiben konnte. Über Jahrhunderte hat sich diese Theorie aufrecht gehalten, doch letztendlich konnte die Existenz dieses Äthers nie experimentell nachgewiesen werden.

Deduktion ist also eine Eigenschaft von Intelligenz. Man stellt eine Regel auf und versucht diese dann experimentell zu bestätigen. Zeigt auch nur ein Experiment, dass die Regel nicht zutrifft, muss sie falsch oder nicht vollständig sein. Das ist die Definition von Wissen in der Wissenschaft. Das Gegenteil des deduktiven Denkens ist die Induktion, also der Schluss von einzelnen Beobachtungen auf eine Regel. Die Bauernregeln zu alljährlich wiederkehrenden Wetterphänomenen sind ein gutes Beispiel hierfür. Auch die Existenz des Urknalls ist die Folge eines induktiven Schlusses. Wir haben absolut keine Ahnung, was ein Urknall ist oder wie er hervorgerufen wird. Doch die Indizien wie die Hintergrundstrahlung oder die Expansion des Universums lassen uns darauf schließen, dass es ihn gegeben hat.

Induktion und Deduktion sind so etwas wie Fühler, mit denen wir uns im Dunkel des Unwissens vorantasten. Wir beobachten die Natur und erkennen Muster. Mit der Induktion schließen wir dann auf eine Regel, wie sich die Natur im Allgemeinen verhält. Durch unsere Vorstellungskraft formulieren wir Theorien, die wir dann deduktiv in Experimenten überprüfen. Wie richtig oder falsch die Regeln sind, die wir uns mit diesen Methoden erschließen, hängt insbesondere mit den Informationen und den Messinstrumenten zusammen, die uns zur Verfügung stehen.

In der Wissenschaft gibt es viel mehr falsche Theorien als richtige. Eine richtige Theorie zu finden, ist mehr oder weniger eine Frage des Zufalls. Wie falsch und wie lange wir falsch liegen können und welche Konsequenzen das haben kann, können wir an den vielen abstrusen religiös und philosophisch motivierten Welterklärungen sehen, die aus heutiger Sicht naiv und dumm erscheinen, jedoch für Jahrhunderte mangels genauerer Information nicht angezweifelt wurden.

Folgt man den vielen Berichten über die Entwicklung von künstlicher Intelligenz, sind wir von dieser bereits im Alltag umgeben. Suchmaschinen vervollständigen Suchbegriffe, Expertensysteme unterstützen Mediziner bei der Diagnose und können bereits selbständig Autofahren. Selbst Spracherkennung wird als künstliche Intelligenz verstanden. Das sind jedoch aus meiner Sicht nur Vorstufen von Intelligenz. Etwas näher an dem, was wir menschliche Intelligenz nennen, ist der IBM-Computer Watson. Watson konnte 2011 gegen menschliche Gegner in der Quizshow Jeopardy gewinnen. Er ist also in der Lage, komplexe Aufgaben zu verstehen und zu lösen.

Stellen wir uns vor, wir könnten bei jeder Entscheidung, die wir treffen, auf das gesamte Wissen der Menschheit zurückgreifen und wir hätten die Rechenleistung, diesen Zugriff in Bruchteilen von Sekunden zu vollziehen. Wie überlegen wäre ein Wesen, das dies könnte?

Ein Vergleich: Ich liege im Bett, als unser Hund ankommt und sich bei mir Schutz suchend einkuschelt. Draußen hat wieder jemand in der Ferne einen Böller gezündet. In Brasilien explodieren bei jeder Gelegenheit tagsüber und nachts Knaller und Raketen, um etwas zu feiern. Eine Beschränkung beim Kauf oder bei der Nutzung gibt es in diesem Land nicht.

Unser Hund ist normalerweise wenig ängstlich. Wenn ihn der Jagdtrieb packt, rennt er selbst bei stockdunkler Nacht durch Büsche und Sträucher. Angst vor Schlangen oder anderen bissigen Tieren kennt er nicht. Selbst bei Blitz und Donner bleibt er vollkommen ruhig, solange diese in etwas Entfernung stattfinden. Doch das Geräusch von explodierendem Schwarzpulver erzeugt bei ihm eine Urangst, die ihn zitternd unter die Bettdecke treibt. Das Geräusch von Explosionen scheinen Hunde wahrzunehmen wie ein Blitzeinschlag in unmittelbarer Nähe.

Seine Reaktionen auf Umwelteinflüsse sind von Instinkten und Intuition geleitet. Im Gegensatz zu ihm weiß ich jedoch, dass von den Knallgeräuschen keine Gefahr ausgeht, und kann daher beruhigt bleiben. Ich weiß auch, dass es kleine fiese Mücken gibt, die beim Stechen Erreger übertragen, die unheilbare Krankheiten hervorrufen können. Deswegen lassen wir unseren Hund dagegen impfen, was er überhaupt nicht verstehen kann. Für den Hund sind unsere Handlungen und unser Verhalten teilweise nicht nachvollziehbar, weil ihm der Verstand und die Informationen fehlen. Wären wir auf eine ähnliche Weise einem intelligenten Wesen unterlegen, welches über mehr Informationen verfügt und diese schneller verarbeiten kann?

Wir Menschen sind gerade dabei, autonom lernfähige Assistenzsysteme zu konstruieren, die uns nicht nur einfache sondern auch sehr komplexe Aufgaben abnehmen können, bis hin zur Unterstützung bei Entscheidungen, die auf sehr vielen Daten beruhen. Doch auch wenn ein Assistenzsystem über das gesamte Wissen der Menschheit verfügt und schneller und sicherer zu Entscheidungen gelangt als wir, bleibt es ein Werkzeug. Denn solange die künstliche Intelligenz kein Bewusstsein hat, kann sie auch nicht selbstbestimmt agieren.

Die eigentliche Frage bei der Erforschung und Entwicklung von künstlicher Intelligenz ist also nicht „Was ist Intelligenz?“ sondern „Was ist Bewusstsein?“. Jeder, der dies liest, kennt die Antwort. Diese Antwort jedoch in eine allgemeingültige Beschreibung zusammenzufassen, scheint uns Menschen jedoch bisher unmöglich. Zur Vertiefung der Fragestellung und möglicher Antworten empfehle ich diese Beiträge:

Ich fasse meine Recherchen zur Bewusstseinsforschung vorsichtig zusammen:

  • Das Bewusstsein ist ein in sich logischer, zusammenhängender und nachvollziehbarer sowie kurzfristig stabiler Zustand.
  • Das Bewusstsein ist das innere Erleben von Reizen, die über die Sinne von der Umwelt wahrgenommen werden.
  • Das Bewusstsein manifestiert sich in Gedanken, also im Denken, Erinnern, Planen und Erwarten.
  • Selbst-Bewusstsein ist das Wissen um das eigene Bewusstsein.
  • Individualbewusstsein ist das Wissen um die Einzigartigkeit der eigenen Existenz und um die Unterschiede zu anderen Lebensformen.

Eine künstliche Intelligenz, die uns ebenbürtig oder überlegen sein könnte, müsste zumindest über diese Fähigkeiten verfügen.

Das Gehirn und das Bewusstsein haben sich über hunderte Millionen Jahre aus der Notwendigkeit des Überlebens heraus entwickelt. Das, was wir unter Intelligenz verstehen, ist in dieser Entwicklung letztendlich nur ein Nebenprodukt. Nun bauen wir Maschinen, die uns bei der Verarbeitung von Massendaten und bei der Simulation der Realität unterstützen, damit wir mehr über die Welt erfahren können. Wieso sollten diese Maschinen quasi aus dem Nichts heraus ein Bewusstsein erlangen?

Die Konstruktion der künstlichen Intelligenz, die uns derzeit umgibt, verfolgt einen Top-Down-Ansatz, das heißt, man nähert sich der künstlichen Intelligenz von einer begrifflichen Seite – also letztendlich von dem, was wir unter Intelligenz verstehen: Verarbeitung von Sinneswahrnehmungen, Sprachvermögen, logisches Denken, Deduktion, Induktion, Entscheidung auf Basis der Wahrscheinlichkeitsrechnung und so weiter. Auch der weiter oben beschriebene Supercomputer Watson von IBM basiert auf diesem Ansatz. Dahinter steckt ein von Menschen gemachtes Computerprogramm, das Informationen anhand einer von Menschen entwickelten Logik verarbeitet. Dieser Ansatz kopiert das Verhalten von intelligenten Wesen, so etwas wie Bewusstsein ist davon jedoch nicht ernsthaft zu erwarten.

Im Gegensatz zum Top-Down-Ansatz gibt es noch den Versuch der Simulation des Gehirns mithilfe von Supercomputern, die das neuronale Netz des Gehirns abbilden sollen. Dieser Ansatz dient hauptsächlich der Erforschung des menschlichen Gehirns und steckt noch in den Kinderschuhen. Das von der EU mit knapp 1,2 Milliarden Euro geförderte „Human Brain Project“, dem Nachfolger des „Blue Brain Projects“, hat sich das ehrgeizige Ziel gesetzt, innerhalb der nächsten fünf bis zehn Jahre das menschliche Gehirn mit Computern nachbilden zu können. Wenn man allerdings den aktuellen Nachrichten zu dem Projekt folgt, dann muss man leider feststellen, dass das Projekt sich eher mit sich selber und seinen Strukturen beschäftigt als mit seinen Zielen. Zudem wird die kurzfristige Machbarkeit von vielen Seiten stark angezweifelt. Bisher hat man im Forschungszentrum Jülich, in dem einer der Supercomputer steht, gerade einmal einen Kubikmillimeter Gehirn nachbilden können.

Da die komplette Nachbildung mit heutiger Rechnertechnologie ca. eine Millionen Kilometer Leitungen benötigt und die künstlichen Nervenzellen 100-mal mehr Daten speichern müssen als Google derzeit auf seinen Serverfarmen, hoffen die Forscher auf die weitere Erfüllung des Mooreschen Gesetzes. Das Mooresche Gesetz beschreibt die Halbierung der Größe integrativer Schaltkreise alle 12 bis 24 Monate. Es ist eigentlich gar kein Gesetz, sondern eine von dem Intel-Mitbegründer Gordon Moore 1965 aufgestellte Vorhersage, die sich jedoch bis heute bestätigt hat.

An dieser Stelle kommt die Entwicklung des Quantencomputers ins Spiel, der die zukünftige weitere Verkleinerung von integrativen Schaltkreisen ermöglicht. Um die Funktionsweise eines Quantencomputers zu verstehen, muss man sich zunächst einmal ein wenig mit Quantenphysik beschäftigen. Die Grundsätze der Quantenphysik können auch von Laien verstanden werden, allerdings muss man ähnlich wie bei der Relativitätstheorie bereit sein, von dem klassischen Verständnis der Welt abzurücken und die Gesetze der Elementarteilchen hinzunehmen. Zum Glück gibt es im Internet genügend Quellen, um sich dem Thema anschaulich zu nähern. Die nachfolgenden Links stellen eine Art Grundkurs in der Quantenphysik zur Näherung an die Technik des Quantencomputers dar.

Wir beginnen mit einer Einführung in den Wellen- und Teilchencharakter von Quanten abhängig von der Messung sowie in das Phänomen der Quantenverschränkung:

Es folgt ein Überblick über die Superposition (zu Deutsch: Überlagerung), die Quantenteleportation und Quantenkommunikation sowie über das Grundprinzip eines Quantencomputers:

Zur Vertiefung das Prinzip der Quantenteleportation und der Bell-Messung:

Optionale Vertiefung zur Quantenkryptografie:

Und schließlich die Entwicklung der Mikroelektronik und Möglichkeiten sowie Funktionsweise eines Quantencomputers (teilweise auf Englisch):

Wenn man die ganzen Quellen durchgearbeitet hat, ist man vielleicht ein wenig schlauer oder vollkommen verwirrt. Doch eines sollte klar geworden sein: Obwohl diese Technologie noch vollkommen am Anfang steht und noch einige Schwierigkeiten wie die Auswahl der richtigen Hardware, die Überlagerung mehrerer Qubits sowie die Fehlerkorrektur zu meistern sind, stellt sie sprichwörtlich einen Quantensprung in der Informationstechnologie dar.

Der wesentliche Unterschied besteht in der Informationsdichte, welche mit klassischen Bits und Qubits dargestellt sowie parallel verarbeitet werden kann. Ein klassisches Bit kann genau eine Information speichern, nämlich ob ein Zustand an oder aus ist. Ein Qubit kann hingegen zwei Informationen speichern: An und Aus gleichzeitig. Zum Verständnis hilft die mathematische Schreibweise:

|ψ› = a|0› + b|1› mit |a|2 + |b|2 = 1

In einem Qubit wird also die Information über den Zustand An oder Aus sowie ein Wahrscheinlichkeitsfaktor, in welchem Zustand sich das Qubit beim Auslesen befindet, gespeichert.

Bringt man nun zwei Qubits in eine gemeinsame Überlagerung ergeben sich bereits vier Informationen, die gespeichert werden können:

|ψ› = a|00› + b|01› + c|10› + d|11›

Bei zwei klassischen Bits sind es nur zwei Informationen.

Während also mit jedem weiteren klassischen Bit die Anzahl der Informationen linear steigt, steigt bei jedem weiteren Qubit die Anzahl der Information exponentiell. Bei n Bits ist die Anzahl der Informationen gleich n, bei n Qubits gleich 2n.

Bei einem Rechner mit 32 Bit kann eine Operation mit 32 Informationen parallel verarbeitet werden, bei einem Rechner mit 32 Qubit sind es jedoch 232, also 4.294.967.296 Informationen.

Ein Quantencomputer kann also große Informationseinheiten in kürzester Zeit verarbeiten. Kein Wunder, dass sich insbesondere Suchmaschinenbetreiber und Geheimdienste für diese Technologie interessieren, denn damit kann sowohl die Suche in großen Datenmengen als auch das Knacken von verschlüsselten Informationen extrem verkürzt werden. Die kanadische Firma D-Wave bietet bereits für 10 Millionen Dollar einen adiabatischen Quantencomputer an, mit dem einzelne Algorithmen optimiert werden können. Neben Lockheed Martin haben die NSA und Google einen solchen Computer gekauft. Google hat mittlerweile ein eigenes Labor gegründet, um zusammen mit einer kalifornischen Universität verbesserte Quantenchips zu entwickeln.

Rein prinzipiell ist mit dem Ansatz der Simulation des Gehirns am ehesten mit so etwas wie einem Bewusstsein zu rechnen. Warum sollte man ein endliches, auf Materie beruhendes System wie das Gehirn nicht nachbauen können? Mit der Technologie des Quantencomputers scheint sich zudem eine Möglichkeit zu entwickeln, die Simulation auch realisieren zu können.

Müssen wir jetzt in Zukunft mit der Machtübernahme der künstlichen Intelligenz wie zum Beispiel in den Terminatorfilmen rechnen? Nur Technikhysteriker sind anfällig für die Projektionen derartiger Science Fiction. Die Geschichte des Skynets beruht auf einer sehr unwahrscheinlichen und einer unmöglichen Annahme. Es ist sehr unwahrscheinlich, dass sich ein Bewusstsein quasi aus dem Nichts heraus bildet, auch nicht, wenn eine Maschine noch so intelligent ist. Intelligenz und Bewusstsein sind vollkommen unterschiedliche Fähigkeiten unseres Gehirns. Physikalisch unmöglich sind Zeitreisen in die Vergangenheit.

Damit so etwas wie Skynet tatsächlich Realität wird, müssen wir eine Maschine konstruieren, die sowohl über künstliche Intelligenz als auch über ein Bewusstsein verfügt. Künstliche Intelligenz können wir schon. Um ein künstliches Bewusstsein zu erzeugen, müssen wir erst einmal verstehen, was Bewusstsein eigentlich ist. Nehmen wir einmal an, wir könnten das auch. Dann müssen wir noch in der Lage sein, autonome und universell einsetzbare Roboter zu bauen, und alle Prozesse zur Erzeugung der Roboter automatisieren, zentral steuern und diese zentrale Steuerung in die Kontrolle dieser einen Maschine mit künstlicher Intelligenz und Bewusstsein übergeben. Diese Maschine muss dann noch aus irgendeinem Grund von selbst oder durch uns programmiert zu dem Schluss kommen, dass sie uns Menschen umbringen muss, statt mit uns zu kooperieren. Wenn wir das alles unternehmen, dann sind wir so blöd, dass wir es verdienen, ausgerottet zu werden.

Den einzigen Grund, den ich sehe, eine Maschine mit künstlicher Intelligenz und einem Bewusstsein zu konstruieren und dieser Maschine auch eine begrenzte Autonomie zu verleihen, liegt in der Eroberung des Weltalls. Ob es um die Erkundung des Sonnensystems oder um die Reise zu den Sternen geht, wir werden ein mehr oder weniger technisches Ebenbild von uns selbst erschaffen müssen, um diese Herausforderungen zu bewältigen. Ein sehr praktisches Anwendungsfeld gibt es bereits: Die beiden konkurrierenden Firmen „Deep Space Industries“ und „Planetary Resources“, an der unter anderem auch einer der Google-Gründer beteiligt ist, wollen mit Robotermissionen Asteroiden einfangen, in die Erdumlaufbahn bringen und dort Wasser sowie seltene Metalle abbauen.

Wenn das nicht ein guter Stoff für einen schicken Science Fiction ist…

Kommentar verfassen