Theoretisch sind sie bereits seit langem angedacht und durch die zukünftige Forschungen zu Robotertechnik und Künstlicher Intelligenz wohl auch realisierbar: die „Von-Neumann-Maschinen“. Intelligente Robotersonden auf Entdeckungsreise durch die Galaxien.
Die Theorie der „Von-Neumann-Maschinen“
Sind wir allein im Weltall? Das ist eine Frage, die Wissenschaftler der unterschiedlichsten Disziplinen, aber auch ganz „normale Menschen“ umtreibt. Die früher häufig gegen die Annahme der Existenz außerirdischen intelligenten Lebens vorgebrachte Argumentation, es sei kein weiteres Planetensystem neben dem unseren bekannt, ist inzwischen nicht mehr relevant. Schon 1992 wurden die drei ersten erdähnlichen Planeten entdeckt, die Neutronensterne umkreisen, später Planeten von Jupitergröße, die sich um sonnenähnliche Sterne bewegen. [1] Seither sind mehr als 100 extrasolare Planeten gefunden worden, ihre Zahl wächst kontinuierlich.
Für Aussagen über die Anzahl möglicher außerirdischer Zivilisationen sind wir freilich auch weiterhin auf Schätzungen angewiesen. Dazu müssen zunächst eine Reihe von Fragen geklärt werden, die als Rahmenbedingungen in die jeweiligen Prognosen einfließen. Dazu gehören die Grundüberlegungen, wie Leben, und darüber hinaus intelligentes Leben, überhaupt entstehen kann. Wenn die Gesetze der Physik, der Chemie und der Evolution universell sind, dann ist die Entwicklung intelligenten Lebens, die sich auf der Erde vollzog, unter erdähnlichen Anfangs- und Nebenbedingungen überall im Universum möglich. [2] Ausschließen lassen sich demnach Sterne ohne Planeten, die Syseme zu heißer oder zu kalter Sterne sowie die von Sternen in den Zentren der Galaxien, und Planeten außerhalb der „Ökozonen“ der Sonnensysteme. Ein Beispiel einer wissenschaftlichen Prognose geht von zwei aktiven Zivilisationen in der Milchstraße aus, in der Galaxis also, zu der die Erde gehört. Mit aktiven Zivilisationen sind dabei diejenigen gemeint, die fähig und auch willens sind, kosmische Kontakte zu führen. [3] Die Zahl erscheint gering. Darüber hinaus werden in dieser Prognose in der Milchstraße aber 40 lebende Zivilisationen mit kosmischer Technik angenommen. [4]
Ein ernst zu nehmendes Argument gegen direkte Kontakte mit fremden Intelligenzen bleiben dennoch die ungeheuren Entfernungen, die zwischen den Sternen liegen und von Besuchern physisch überwunden werden müssten. Selbst lichtschnelle elektromagnetische Wellen, als Informationsträger einer Kommunikation genutzt, wären wenigstens einige Jahre unterwegs. Schon der unserem Sonnensystem nächste Stern Proxima Zentauri ist etwa 4,3 Lichtjahre entfernt, der nächste, Barnards Pfeilstern, schon 5,9 Lichtjahre. [5] Und zwischen uns und anderen Galaxien, wie etwa der direkt benachbarten, dem Andromedanebel, existiert die schier unvorstellbare Distanz von fast 2,3 Millionen Lichtjahren. [6]
Abb. 1: Eine wissenschaftliche Prognose von 1988 hat für eine Galaxis etwa 40 intelligente Lebensformen mit kosmischer Technik errechnet, davon zwei „aktive“, die fähig und bereit zu Kontakten sind.
Doch SETI – „Search for extraterrestrial intelligence“ – entwickelt sich als ein weltweites interdisziplinäres Forschungsprogramm, betrieben von Wissenschaftlern und einer Vielzahl von Enthusiasten mit den unterschiedlichsten beruflichen und sozialen Hintergründen. Einer ihrer Protagonisten, der Astrophysiker Timothy Ferris, geht im Universum von einhundert Milliarden Galaxien aus, die jeweils einhundert Milliarden Sterne haben. Zu SETI merkt Ferris deshalb an:
„Negative Ergebnisse sind kein schlüssiger Gegenbeweis. […] Die bittersüße Wahrheit ist, dass wir niemals werden beweisen können, dass wir allein im Universum sind. SETI endet entweder mit einem Triumph oder erweist sich als eine Straße ohne Ende.“ [7]
In der SETI wird die Ansicht vertreten, dass hochentwickelte Zivilisationen das Bedürfnis hätten, das Weltall zu erkunden. Wenn das stimmt, dann würden sie natürlich vor den eben skizzierten Problemen stehen und müssten über praktikable Lösungen nachdenken. Eine äußerst erfolgversprechende Möglichkeit scheint darin zu bestehen, Technologien zu benutzen. Der Physiker und Wissenschaftsjournalist Robert Matthews führt dazu aus, „außerirdische intelligente Wesen würden sehr schell feststellen, dass der beste Ansatz darin besteht, Sonden zu verwenden, die in der Lage sind, die vorhandenen Ressourcen des Planeten, den sie erkunden, zu nutzen, um sich selbst zu reparieren und zu replizieren: kurz gesagt – Roboterpioniere.“ [8] Solche Robotersonden werden als „Von-Neumann-Maschinen“ bezeichnet, benannt nach dem Mathematiker John von Neumann (1903-1957).
Der in Budapest (Ungarn) geborene von Neumann, dessen Geburtstag sich im vergangenen Dezember zum hundertsten Mal jährte, studierte in Berlin, Budapest, Zürich und Göttingen, lehrte dann als Privatdozent in Hamburg und Berlin. Er siedelte 1933 in die USA über und wurde Professor am angesehenen Institut of Advanced Studies in Princeton, wo zur gleichen Zeit auch Albert Einstein tätig war. Von Neuman arbeitete zeitweise als Berater des Atombombenprojektes in Los Alamos und in der US-Atomenergiebehörde, entwickelte in den 1940er Jahren die Spieltheorie, ein mathematisches Verharen, das optimales Verhalten in Entscheidungssituationen untersucht, bei denen der Nutzen des Handelns einzelner Individuen von den Handlungen anderer abhängt. [9] Er war an der Entwicklung elektronischer Rechner beteiligt und beschäftigte sich in seinen letzten Lebensjahren mit einer allgemeinen Automatentheorie, zu der die Überlegung gehörte, ob einer der eben beschriebenen Roboter logisch und technisch überhaupt möglich sei.
Abb. 2: John von Neumann vor einem der ersten Computer. Er forschte auch zur Rechnerarchitektur und schlug 1947 einen internen Programmspeicher vor, was dem heutigen Aufbau eines Computers entspricht.
Der schon zitierte Astrophysiker Ferris beschreibt die Möglichkeiten solcher sich selbst reproduzierender Maschinen so:
„Eine Gesellschaft startet eine computergesteuerte Sonde zu einem rohstoffreichen Asteroiden, der sich in ihrem eigenen Sonnensystem oder bei einem anderen Stern befinden kann. Nach der Landung setzt die Sonde kleine Roboter aus, die den Asteroiden nach Eisenerzen absuchen. Die Sonde verwendet die Metalle zum Bau größerer Maschinen.“ [10]
So entsteht schließlich eine Station, die selbst wiederum zu astronomischen Beobachtungen, dem Bau neuer Tochter-Sonden und der Auftragsdefinition und -erteilung an diese fähig ist – und sie zu neuen Zielen losschickt. Um mit der Zeit nicht mit zu vielen Sonden zu viele Planeten anzufliegen und bei der Herstellung nicht zu viele Rohstoffe zu verarbeiten, könnte die Reproduktionsrate der Sonden so gesteuert werden, dass nur dort neue Stationen entstehen, wo ein besonderes Erkenntnisinteresse ihrer ursprünglichen Schöpfer vorliegt. [11] Die von den Robotersonden errichteten Basisstationen dienen gleichzeitig als Sende- oder Relaisstationen eines riesigen Kommunikationsnetzes, das Informationen zum Ursprungsplaneten übermittelt.
„Spätestens, seitdem in der Weltraumforschung Roboter mit Künstlicher Intelligenz eingesetzt werden, ist auch extraterrestrische KI nicht nur ein Thema von Science Fiction“ [12], betont diesbezüglich der Wissenschaftstheoretiker Klaus Mainzer, Direktor des Instituts für Interdisziplinäre Informatik an der Universität Augsburg. Doch müssten wir solche von extraterrestrischen Intelligenzen ausgeschickte Sonden, wenn sie denn in der Nähe der Erde agierten, nicht längst schon entdeckt haben? Immerhin unternehmen wissenschaftliche, militärische und wirtschaftliche Institutionen vieler Länder und überstaatlicher Organisationen vielfältige Anstrengungen zur Beobachtung des Weltalls und nutzen dazu radioastronomische Anlagen. Doch diese Roboter könnten natürlich auch so konstruiert und programmiert sein, dass sie ihre Beobachtungsmissionen möglichst unentdeckt erfüllen. [13] Sie könnten sehr klein sein oder getarnt, sie könnten ihre Signale gerichtet ausstrahlen oder Sendungen nur in sehr großen Zeiträumen vornehmen. Dabei sollte außerdem nicht vergessen werden, dass die Menschen überhaupt erst seit wenig mehr als einhundert Jahren technisch in der Lage sind, auf elektromagnetischen Wellen basierende Kommunikationssignale auszusenden und zu empfangen. Theoretisch hatte sich der amerikanische Erfinder Alva Edison um 1890 damit beschäftigt, Radiowellen aus dem Kosmos zu empfangen. Praktische Experimente mit einfachsten Empfängern wurden in den Jahren danach durchgeführt – so vom russischen Physiker Alexander Popow, der im Auftrag der Marine des Zaren 1895 mit einem Wellendetektor als „Gewittermelder“ experimentierte. [14]
Abb 3: Prototyp eines Roboters, den die NASA für den Einsatz im Weltraum testet. Grundlage einer künftigen „Von-Neumann-Maschine“?
Die menschliche Technik ist derzeit noch nicht weit genug entwickelt, um die sich selbst reproduzierenden Robotersonden der beschriebenen Art herzustellen. Aber aktuelle Forschungen zu Robotertechnik und Künstlicher Intelligenz (KI, „Artificial intelligence“) haben bereits wichtige Zwischenergebnisse gebracht. So hat der amerikanische Wissenschaftler Hod Lipson an der Brandeis University das Projekt „Golem“ – der Golem war in einer mittelalterlichen jüdischen Legende ein aus Lehm geschaffener künstlicher Mensch – durchgeführt. Dem menschlichen Nervensystem nachempfundene künstliche „Neuronale Netze“, die selbstlernend sind, entwerfen, bauen und steuern dabei einfache elektromechanische Systeme. [15] Genutzt wird die Technologie des „Rapid prototyping“, indem eine Art Drucker thermoplastisches Material Schicht für Schicht aufträgt, bis die geplante Struktur entstanden ist – wobei es auch wieder eingeschmolzen und neu angeordnet werden kann. [16] Der Roboter ist also nicht nur in der Lage, verschiedene Formen anzunehmen, sondern wählt diese zielgerichtet selbst aus. In absehbarer Zeit könnte eine praktische Anwendung darin bestehen, einen Werkzeugroboter zu bauen, der an seinen Extremitäten für die unterschiedlichsten Aufgaben die jeweils notwendigen Arbeitsgeräte generieren kann. Damit sind erste Schritte in die durch John von Neumann gedanklich vorgegebene Richtung getan.
Anmerkungen
[1] Vgl. Physik 2000, S. 11
[2]Vgl. Mainzer 2003, S. 240. Freilich gibt es auf der Landkarte unseres Wissens in Bezug auf den Ursprung des Lebens noch große weiße Flecke; vgl. Shapiro (1991), S. 321ff
[3] Vgl. Taube 1988, S. 359
[4] Vgl. ebd.
[5] Vgl. Herrmann, Joachim 2000, S. 236ff
[6] Vgl. Learner 1991, S. 199. Die Entfernung ist hier als 700.000 Parsec angegeben, wobei ein Parsec 3,26 Lichtjahren entspricht.
[7] Ferris 1995, S. 27
[8] Matthews 1994, S. 175
[9] Vgl. Dieudonné 1981 sowie Zey 1997.
[10] Ferris 1995, S. 38.
[11] Vgl. ebd., S. 39.
[12] Vgl. Mainzer 2003, S. 241.
[13] Vgl. Matthews 1994, S. 176 sowie Brockman 1991, S. 234.
[14] Vgl. Herrmann, Dieter B. 1979, S. 192 sowie Flichy 1994, S. 168.
[15] Vgl. Lipson/Pollack 2000, S. 974 sowie Brooks 2000. Lipson lehrt inzwischen an der Cornell University.
[16] Vgl. Lipson/Pollack 2000, S. 975f.
Abbildungen
[1] [3] NASA, bearbeitet: Markus Pezold
[2] Institute for Advanced Study
Literatur
o.A. (2000): Physik. Themen, Bedeutung und Perspektiven physikalischer Forschung (hrsg. von der Deutschen Physikalischen Gesellschaft e.V.). Bad Honnef
Brockman, John (1991): Einstein, Gertrude Stein, Wittgenstein & Frankenstein. Die Geburt der Zukunft. Die Bilanz unseres naturwissenschaftlichen Weltbildes. München
Brooks, Rodney (2000): „From robot dreams to reality“, in: Nature, Vol. 406 (31.8.2000), S. 945f.
Dieudonné, J. (1981): „von Neumann, Johann (or John)“, in: Dictionary of Scientific Biography, Vol. 14, New York 1981, p. 88-92
Ferris, Timothy (1995): Das intelligente Universum. Ein Blick zurück auf die Erde. München
Flichy, Patrice (1994): Tele. Geschichte der modernen Kommunikation. Frankfurt a.M./New York
Herrmann, Dieter B. (1979): Entdecker des Himmels. Leipzig/Jena/Berlin (DDR)
Herrmann, Joachim (2000): Die Sterne. Ein Führer zur Himmelsbeobachtung in Europa. München
Learner, Richard (1991): Die Geschichte der Astronomie und die Entwicklung des Teleskops seit Galilei. Bindlach
Lipson, Hod/Jordan B. Pollack (2000): „Automatic design and manufacture of robotic lifeforms“, in: Nature, Vol. 406 (31.8.2000), S. 974-978
Mainzer, Klaus (2003): KI – Künstliche Intelligenz. Grundlagen intelligenter Systeme. Darmstadt
Matthews, Robert (1994): Und Gott hat doch gewürfelt. Die letzten Rätsel der Naturwissenschaften. München
Shapiro, Robert (1991): Schöpfung und Zufall. Vom Ursprung der Evolution. München
Taube, Mieczyslaw (1988): Materie, Energie und die Zukunft des Menschen. Stuttgart
Zey, René – Hrsg. (1997): Lexikon der Forscher und Erfinder. Hamburg