Über Karl Olsberg

Karl Olsberg promovierte über Anwendungen Künstlicher Intelligenz. Er war Unternehmensberater, Marketingdirektor eines TV-Senders, Geschäftsführer und erfolgreicher Gründer mehrerer Start-ups. Heute arbeitet er als Schriftsteller und Unternehmer und lebt mit seiner Familie in Hamburg.

Bislang erschienen im Aufbau Taschenbuch seine Thriller »Das System«, »Der Duft«, »Schwarzer Regen«, »Glanz« sowie »Die achte Offenbarung«.

Mehr vom und zum Autor unter: www.karlolsberg.de

Informationen zum Buch

Wenn die Maschinen uns nicht mehr brauchen

Angenommen, die Entwicklung der Technik folgt demselben evolutionären Prinzip, das für alles Lebendige gilt: Was bedeutet das für unsere Zukunft? Werden Maschinen bald ohne uns auskommen? Wie können wir verhindern, in eine immer verhängnisvollere Abhängigkeit von Systemen zu geraten, die wir immer weniger verstehen?

In seiner ebenso klugen wie unterhaltsamen Auseinandersetzung warnt Karl Olsberg eindringlich vor Naivität im Umgang mit den Annehmlichkeiten unserer hochtechnisierten Welt. Auf der Basis neuer wissenschaftlicher Erkenntnisse belegt er, wie schnell wir uns dem Punkt nähern, an dem wir unser Schicksal nicht mehr selbst in der Hand haben. Aber er weist auch Wege, mit dieser immer komplexeren technischen Umwelt umzugehen.

»Wir haben längst die Kontrolle verloren über die Dinge, die wir schufen. Wenn wir eine Zukunft haben wollen, tun wir gut daran, das zu verstehen.«

ABONNIEREN SIE DEN
NEWSLETTER
DER AUFBAU VERLAGE

Einmal im Monat informieren wir Sie über

Folgen Sie uns auf Facebook, um stets aktuelle Informationen über uns und unsere Autoren zu erhalten:

https://www.facebook.com/aufbau.verlag

Registrieren Sie sich jetzt unter:

http://www.aufbau-verlag.de/newsletter

Unter allen Neu-Anmeldungen verlosen wir

jeden Monat ein Novitäten-Buchpaket!

Karl Olsberg

Schöpfung außer Kontrolle

Wie die Technik uns benutzt

Inhaltsübersicht

Über Karl Olsberg

Informationen zum Buch

Newsletter

Herzlichen Glückwunsch!

Teil I Darwins Algorithmus

1. Geradewegs ins Chaos

2. Was Darwin nicht wusste

3. Die Mathematik des Lebens

4. Der Fortschritt ist blind

5. Ein Reiskorn kommt selten allein

6. Die Macht der Meme

7. Wenn Bäume in den Himmel wachsen

Teil II Das Schokoladenproblem

1. Sind Städte lebendig?

2. Darwin im Supermarkt

3. Die Evolution Gottes

4. Alan Turings Irrtum

5. Die Mensch-Maschinen

6. Der Zauber der blauen Pille

Teil III So lasst uns denn ein Apfelbäumchen selektieren

1. Zurück in die Steinzeit

2. Wir haben die Wahl

3. Gärtner im Garten Eden

Literatur

Danksagung

Leseprobe aus: Karl Olsberg – Mirror

Weitere Informationen zur Leseprobe

Impressum

Gewidmet der ersten Maschine,

die diesen Text lesen und verstehen kann.

Wenn sie nur kann,

wird die Natur dich dreist belügen.

Charles Darwin

Herzlichen Glückwunsch!

Als Käufer dieses Buches sind Sie Teil einer Elite, einer kleinen Minderheit außergewöhnlich talentierter Lebewesen. Sie gehören zu einer Spezies, die herausragt unter all den Lebewesen unseres Planeten, vielleicht sogar unter allen Lebewesen des Universums. Sie können sprechen, lesen, schreiben.

Sie haben ein Gehirn, das weit leistungsfähiger ist als alles, was die uns bekannte Natur je hervorgebracht hat. Die Zahl der möglichen Verbindungen zwischen den Neuronen in Ihrem Kopf ist größer als die Zahl der Atome im Universum. Mit diesem Gebilde vollbringen wir wahre Wunder: Wir erschaffen Städte, Kunstwerke, das Internet. Wir fliegen zum Mond und spalten Atome. Wir haben keine natürlichen Feinde mehr, selbst die Krankheiten besiegen wir nach und nach. Wir verändern die Umwelt in so großem Ausmaß, dass wir uns mäßigen müssen in unserer einzigartigen Macht über die Natur.

In der Bibel steht: »Seid fruchtbar und mehret euch und füllet die Erde und machet sie euch untertan.« Wir haben diese Worte befolgt und die Herrschaft über die Erde übernommen. Schließlich sind wir die Quintessenz aus 3,8 Milliarden Jahren Evolution, die kontinuierlich danach gestrebt hat, immer bessere und intelligentere Geschöpfe hervorzubringen.

Wir haben Probleme, ja, aber es sind nicht mehr die Probleme des Überlebens in einer feindlichen Natur, sondern selbstgemachte Schwierigkeiten wie Terrorismus, Überbevölkerung und Umweltzerstörung. Es gibt nur eine Lebensform, die uns noch wirklich gefährlich werden kann: wir selbst.

Wir wissen nicht, ob es irgendwo da draußen im Weltall Wesen gibt, die noch intelligenter, noch mächtiger sind als wir. Aber hier, auf unserem Planeten, sind wir unumstritten die Krone der Schöpfung.

Die obigen Zeilen geben mehr oder weniger die Meinung der meisten Menschen zu ihrer Rolle auf der Erde wieder. Viele würden es vielleicht nicht so drastisch ausdrücken, nicht so arrogant wirken wollen. Aber im Grunde halten wir Menschen uns für etwas Besonderes. Wir wissen, dass wir nicht perfekt sind, halten uns gegenüber dem Rest der Schöpfung aber eindeutig für überlegen. Schließlich können wir Dinge, die kein Tier kann. Wir haben zum Beispiel die Macht, mit unseren etwa 30 000 Atombomben das Leben auf der Erde – einschließlich uns selbst – weitgehend zu zerstören. Könnte es einen besseren Beweis für unsere Überlegenheit geben?

Wir sind nun mal die Krone der Schöpfung, ob wir wollen oder nicht. Wir müssen nur noch lernen, wie wir verantwortungsvoll mit unserer Führungsrolle umgehen. Das ist die »herrschende Meinung«, und vielleicht auch Ihre.

Leider ist sie falsch.

Es ist der Zweck dieses Buches zu zeigen, dass wir nicht die Krone der Schöpfung sind, sondern ihre Diener. Dass die Evolution uns schamlos ausnutzt und unsere großen Gehirne nur dazu da sind, den ewigen Kreislauf der Reproduktion, Mutation und Selektion zu beschleunigen, der allem Leben zugrunde liegt.

Wir werden Argumente dafür diskutieren, dass Städte, Autos und Fernseher nicht gezielt von uns geschaffen wurden, sondern durch denselben Evolutionsprozess entstanden sind, der auch alle Lebewesen einschließlich uns selbst hervorgebracht hat. Dass wir im Grunde nur Vermehrungshelfer für die Dinge sind, die wir herstellen, und dass diese nicht weniger »natürlich« sind als Ameisenhaufen, Tannenzapfen und Viren. Dass es sogar schwerfällt, Städte von Lebewesen abzugrenzen.

Sigmund Freud hat einmal gesagt, alle großen wissenschaftlichen Revolutionen hätten eines gemeinsam: Sie stießen die menschliche Arroganz immer wieder von einem Sockel der kosmischen Selbstsicherheit nach dem anderen. Kopernikus, Galilei, Newton und die modernen Astronomen haben gezeigt, dass die Erde nicht der Mittelpunkt des Universums ist, sondern einen absolut gewöhnlichen Stern in einem unbedeutenden Spiralarm der Milchstraße, einer von etwa einer Billion Galaxien, umkreist. Freud selbst zerstörte die Illusion vom vernünftig handelnden Menschen und machte deutlich, dass das Unbewusste unsere Handlungen viel stärker dirigiert, als wir wahrhaben wollen.

Darwin und die moderne Genetik zeigen uns, dass wir nicht einzigartige, nach Gottes Abbild geschaffene Wesen sind, sondern uns kaum von unseren tierischen Verwandten unterscheiden. Doch erst in jüngerer Zeit, mehr als einhundertfünfzig Jahre nach der Veröffentlichung der »Entstehung der Arten durch natürliche Zuchtwahl«, werden die Implikationen seiner Entdeckung allmählich in ihrem ganzen Ausmaß klar.

Stephen Jay Gould wies in »Illusion Fortschritt« nach, dass die Evolution nicht zielgerichtet verläuft, dass intelligente Wesen nicht etwa weniger intelligenten »überlegen« sind, dass der menschliche Intellekt lediglich das Ergebnis eines zwangsläufigen statistischen Effekts ist.

Der britische Zoologe Richard Dawkins zeigt in seinem Buch »Das egoistische Gen«, dass Menschen, Tiere und Pflanzen nichts als Reproduktionsmaschinen sind, die von den Genen benutzt werden, um sich zu vervielfältigen. Er wies auch darauf hin, dass wir nicht nur Gene vervielfältigen, sondern auch Informationseinheiten, die er Meme nannte – zum Beispiel Gedichte, wissenschaftliche Theorien oder handwerkliche Fähigkeiten. Damit schuf er ein neues, noch nicht sehr weit verbreitetes und von der Öffentlichkeit weitgehend unbeachtetes Forschungsgebiet: die Memetik.

Die Bedeutung der Evolutionstheorie geht weit über die Erklärung der Entstehung des Lebens auf der Erde hinaus. Sie entschlüsselt wirtschaftliche Zusammenhänge, liefert praktische Erkenntnisse über unser tägliches Leben und gibt uns Hinweise darauf, was uns in der Zukunft bevorsteht. Vor allem aber definiert sie unsere Rolle in der Schöpfung neu.

Mit dem Begriff »Schöpfung« ist hier nicht ein bewusster Akt eines höheren Wesens gemeint, wie die Religion ihn voraussetzt. »Schöpfung« bezieht sich vielmehr allgemein auf den Prozess, der die Vielfalt des Lebens auf der Erde hervorgebracht hat, unabhängig davon, ob dabei ein höheres Wesen eingreift oder nicht.

Es ist an der Zeit, dass wir uns von einer weiteren Illusion verabschieden. Nicht wir sind es, die die Natur beherrschen. Die Natur beherrscht uns. Mehr noch: Sie benutzt uns. Wir sind nichts anderes als ihre Helfershelfer, die den natürlichen Prozess der permanenten Umgestaltung und Anpassung, den wir Evolution nennen, dramatisch beschleunigen. Unsere Kultur und Technik sind, ebenso wie wir selbst, Ergebnisse dieses seit Jahrmilliarden andauernden Prozesses, der auf einem simplen mathematischen Gesetz beruht.

Wir mögen glauben, dass wir diesen Schöpfungsprozess kontrollieren können, doch in Wahrheit kontrolliert er uns. Wir tun gut daran, das zu begreifen und unsere eigentliche Rolle in diesem Prozess zu akzeptieren. Dann haben wir die Chance, aus der Erde wieder einen Garten Eden zu machen – nicht als »Krone der Schöpfung« allerdings, sondern als Gärtner.

Teil I
Darwins Algorithmus

1. Geradewegs ins Chaos

Im Jahr 1981 kaufte ich mir meinen ersten Computer – einen Texas Instruments 99/4a mit 16 Kilobyte Hauptspeicher und einem mit ca. 1 Megahertz getakteten 16-Bit-Mikroprozessor, inklusive Diskettenlaufwerk für insgesamt ca. 2 500 D-Mark. Damals war ich einer der wenigen in Deutschland, die so ein Gerät für private Zwecke besaßen.

Ende 2006 erwarb ich für 1 000 Euro – also einen vergleichbaren Betrag – einen Computer mit Intel-Dual-Core-Prozessor, 3,2 Gigahertz Taktfrequenz und 2 Gigabyte Hauptspeicher. In 25 Jahren hatte sich allein die Taktfrequenz, die man für einen bestimmten Geldbetrag bekommt, um den Faktor 3 200 erhöht. Beim Hauptspeicher betrug der Faktor 131 000. Die Rechenleistung dürfte je nach Anwendung insgesamt mehr als 100 000-mal so groß sein.

Hinter dieser rasanten Entwicklung steckt ein Zusammenhang, der nach einem der Gründer des Mikroprozessor-Herstellers Intel »Mooresches Gesetz« genannt wird. Gordon Moore stellte schon Ende der sechziger Jahre die These auf, dass sich die Dichte der Halbleiterelemente in einem Mikrochip alle 2 bis 3 Jahre verdoppele, was in der Praxis über Jahrzehnte bestätigt wurde. Da die Dichte der Speicherelemente inzwischen an ihre physikalischen Grenzen stößt, wurde das Mooresche Gesetz so weit verallgemeinert, dass sich die Rechenleistung pro Dollar etwa alle 2 Jahre verdoppelt. Beim Vergleich eines modernen PC mit meinem alten TI 99/4a ist die durchschnittliche Verdoppelungszeit sogar noch kürzer.

diagram_18_0.tif

Entwicklung der Rechenleistung des jeweils schnellsten Computers der Welt in Rechenoperationen pro Sekunde

Betrachtet man die Entwicklung der Rechenleistung der jeweils schnellsten Computer ihrer Zeit, so stellt man erstaunt fest, dass Moores Erkenntnis offenbar schon viel länger gilt, und zwar mit verblüffender Genauigkeit. Seit immerhin etwa hundert Jahren folgt die Steigerung der Rechenleistung einer exponentiellen Entwicklung.

Das obige Bild zeigt die Rechenleistung der jeweils schnellsten Computer der Welt in der Einheit »Flop/s« für Floating Point Operations per Second, zu Deutsch Fließkomma-Rechenoperationen pro Sekunde. Die Skala ist in diesem Bild logarithmisch dargestellt. Das bedeutet, dass zwischen zwei Strichen jeweils eine Vertausendfachung der Rechenleistung liegt.

Die Betrachtung beginnt mit den ersten mechanischen Rechenmaschinen zu Beginn des 20. Jahrhunderts, die für eine einzelne Rechenoperation noch mehrere Sekunden brauchten. Im Sommer 2008 durchbrach erstmals ein Computer von IBM mit dem hübschen Spitznamen »Roadrunner« im Los Alamos National Laboratory in den USA die Grenze von einer Billiarde (1 000 000 000 000 000) Rechenoperationen pro Sekunde. In der Zwischenzeit hatte sich die Rechenleistung ungefähr 52-mal verdoppelt, also ziemlich genau jeweils alle 2 Jahre.

Anders, als Moore es ursprünglich gemeint hatte, betrifft diese Kurve nicht eine bestimmte Technologie, sondern die Leistung von Rechenmaschinen an sich, unabhängig davon, wie diese funktionieren. Während die ersten Computer noch mit relativ schwerfälligen elektromechanischen Relais arbeiteten, wurden durch den Einsatz von elektrischen Röhren, dann von Transistoren, integrierten Schaltungen und Mikroprozessoren immer wieder technische Grenzen überwunden.

Konrad Zuse schuf mit dem Z1 den ersten programmierbaren Rechner der Welt. Er schaffte weniger als eine Rechenoperation pro Sekunde. Dennoch war sein Konzept revolutionär, denn anders als die damals üblichen Rechenmaschinen arbeitete der Z1 bereits mit einem binären Zahlensystem, das zum Beispiel die mechanische Durchführung von Multiplikationen deutlich beschleunigte und vereinfachte.

Wie so oft stieß diese bahnbrechende Erfindung zunächst auf Skepsis und Unverständnis. Zuse erinnert sich in seinen Memoiren an ein Telefonat mit Dr. Kurt Pannke, einem Fabrikanten von Spezialrechenmaschinen, im Jahr 1937: »›Ich habe mir sagen lassen‹, begann Dr. Pannke, ›dass Sie eine Rechenmaschine erfunden haben. Nun will ich Ihnen nicht den Mut nehmen, als Erfinder zu arbeiten und neue Ideen zu entwickeln. Aber eines muss ich Ihnen doch von vornherein sagen: Auf dem Gebiet der Rechenmaschinen ist praktisch alles bis in die letzten Möglichkeiten erforscht und ausgeklügelt. Da gibt es kaum noch etwas zu erfinden, das hat mir auch der berühmte Rechenmaschinenkonstrukteur Hamann bestätigt, nach dessen Ideen rund eine Million Rechenmaschinen gebaut worden sind. Arbeitet Ihre Rechenmaschine nach dem Prinzip der wiederholten Addition oder nach dem Prinzip der Einmaleins-Körper?‹ – ›Das ist in meiner Maschine dasselbe‹, sagte ich, worauf statt einer Antwort eine längere Pause folgte.«

Es gibt gute Gründe anzunehmen, dass sich die Leistungsfähigkeit von Computern auch in Zukunft exponentiell entwickelt, sich also weiterhin etwa alle 2 Jahre verdoppeln wird. Denn es sind bereits neue Techniken in Entwicklung, die Computer noch wesentlich schneller machen können, wie beispielsweise optische Computer, analoge Rechner (die statt nur mit 0 und 1 auch mit den Zwischenwerten rechnen können) oder die exotischen Quantencomputer. Letztere existieren bisher nur in der Theorie, könnten aber eine Aufgabe, für die ein heutiger Durchschnitts-PC viele tausend Jahre brauchen würde, in einer Sekunde lösen. Selbst mit der heute verfügbaren Technik kann man die Leistung eines handelsüblichen 1 000-Euro-PCs vermutlich noch eine ganze Weile alle 2 Jahre verdoppeln, indem man zum Beispiel statt eines einzigen Mikroprozessors mehrere Parallelprozessoren verwendet, wie dies bereits mit den »Dual-Core-« und »Quad-Core-Prozessoren« geschieht.

Die meisten Menschen können sich exponentielle Entwicklungen nur schwer vorstellen. Versuchen wir also, die zukünftige Steigerung der Computerleistung auf einen linearen Maßstab zu übertragen. Zeichnen wir dazu die Leistung eines 1 000-Euro-Computers im Abstand von jeweils 10 Jahren als Säule auf ein Blatt Papier. Die Höhe der Säule entspricht dabei der Rechenleistung. Beginnen wir mit einem PC des Jahres 2010 und wählen für seine Leistung eine niedrige Säule, zum Beispiel einen Zentimeter hoch. Bei einer Verdoppelung alle 2 Jahre wäre die nächste Säule für einen Computer des Jahres 2020 schon 32 Zentimeter hoch, mehr als die ganze Höhe eines DIN-A4-Blattes. Noch einmal 10 Jahre weiter, im Jahr 2030, wäre die Leistung eines Haushalts-PCs schon so stark, dass die zugehörige Säule eine Höhe von mehr als 10 Metern hätte und gerade noch auf die Fassade eines vierstöckigen Wohnhauses passte. Für das Jahr 2040 bräuchten wir dann schon ein 330 Meter hohes Gebäude, und die Säule für das Jahr 2050 würde sogar den Mount Everest überragen – sie wäre mehr als 10 Kilometer hoch. Immer vorausgesetzt natürlich, der exponentielle Trend der letzten 100 Jahre gilt noch weitere 40 Jahre fort.

Das ist eine riesige Rechenleistung. Wozu brauchen wir die? Eine Frage, die nicht leicht zu beantworten ist. Allerdings lässt sich bei näherer Betrachtung der Computerentwicklung feststellen, dass der Bedarf an Rechenleistung in den letzten 100 Jahren mindestens so schnell gewachsen ist wie die Leistungsfähigkeit der Maschinen. Denken Sie nur an die Komplexität heutiger Computerspiele, die immer realitätsnäher werden und inzwischen einen höheren Produktionsaufwand haben – aber auch mehr einbringen – als mancher Hollywood-Kinohit.

Also schön, werden Sie jetzt vielleicht denken, die Rechenleistung wächst exponentiell. Ein Telefon des Jahres 2050 ist vermutlich leistungsfähiger als der heute schnellste Computer der Welt. Na und? Wo ist das Problem?

Es ist nicht die Rechenleistung selbst, die unsere Welt grundlegend verändert und uns in Zukunft nicht nur neue Segnungen, sondern auch ganz neue Schwierigkeiten bringen wird. Es ist die Komplexität der Maschinen, deren Leistungsfähigkeit so unermesslich wächst, und der Anwendungen, für die wir sie nutzen werden.

Als ich meinen ersten Computer kaufte, wurden in Computerzeitschriften sogenannte »Listings« abgedruckt – das waren Programme auf 2 bis 3 Seiten, die man problemlos abtippen konnte. Simple Computerspiele zum Beispiel oder etwa ein Programm zur Berechnung des Benzinverbrauchs. In den Hauptspeicher des Computers passte auch gar nicht viel mehr Komplexität – im Fall des TI 99/4a nur etwa 16 000 Zeichen, das sind ungefähr 10 Schreibmaschinenseiten.

Heutige Computer sind da etwas anspruchsvoller. Das Betriebssystem Windows Vista besteht nach einer Pressemitteilung des Herstellers Microsoft aus mehr als 50 Millionen Programmzeilen. Ausgedruckt wären das etwa 300 1 000 Seiten starke, zweispaltig eng gedruckte Bücher – 10-mal so viel wie eine große Enzyklopädie.

Es liegt auf der Hand, dass man solche Programme nicht mal eben »abtippt«. Man kann sie auch nicht ohne weiteres von Hand schreiben. Niemand kann die Komplexität von 50 Millionen Zeilen ohne Hilfsmittel überblicken. Man braucht dafür natürlich – Computer.

Software wird auf vielfältige Art und Weise in der Softwareentwicklung eingesetzt. Da gibt es zunächst die einfachen Werkzeuge: Texteditoren und sogenannte Compiler, die den Programmcode von einer für Menschen lesbaren in eine maschinennahe Form übersetzen. Auf der nächsten Komplexitätsstufe folgen Programmbibliotheken – Sammlungen von nützlichen Funktionen, die andere Programmierer irgendwann erstellt haben oder die vom Betriebssystem des Computers zur Verfügung gestellt werden. Es wäre ja nicht sinnvoll, dass jeder Programmierer das Rad neu erfindet und beispielsweise eine Programmroutine zur Ausgabe eines Zeichens auf dem Bildschirm entwickelt, die von hunderttausend anderen Programmen ebenfalls benötigt wird. So etwas befindet sich natürlich schon fertig in den »Systemroutinen« des Betriebssystems.

Doch auch mit solchen Hilfsmitteln kann man die Komplexität heutiger Softwareprojekte nicht bewältigen. Also folgen auf der nächsten Ebene Planungs- und Verwaltungsprogramme, die zum Beispiel Übersichten über den Fertigstellungszustand und die aktuelle Version aller verwendeten »Software-Module« bereitstellen (Module sind einzelne Programmteile, die bestimmte Teilaufgaben, wie zum Beispiel das Drucken eines Dokuments, übernehmen).

Trotz – oder gerade wegen – dieser Hilfsmittel ist vieles, was in der Softwareentwicklung passiert, Routine. Routinetätigkeiten kann man oft automatisieren. Also gibt es längst sogenannte Codegeneratoren, die automatisch Programme schreiben. Der menschliche Entwickler sagt dem Computer dabei quasi nur noch, was das Programm tun soll, nicht mehr, wie. Ein großer Teil der Internet-Seiten, die man beim Surfen im World Wide Web zu Gesicht bekommt, wurde von solchen Codegeneratoren erzeugt.

Noch eine Stufe weiter gehen selbstlernende Programme. Sie sind in der Lage, sich selbst so zu verändern, dass sie eine bestimmte Aufgabe mit der Zeit immer besser lösen können. Obwohl diese Technik noch in den Kinderschuhen steckt, wird ihr zukünftig in einer immer komplexeren Umwelt wohl eine wachsende Bedeutung zukommen. Heutige Anwendungen findet man beispielsweise in Computerspielen, bei denen sich die Gegner im Laufe der Zeit immer besser auf den Spieler einstellen, aber auch in technischen Systemen.

Der Effekt all dieser Technik ist, dass ein Programmierer nur noch ungefähr weiß, wie das Programm, das er entwickelt hat, funktioniert. Niemand versteht mehr die Komplexität eines typischen Computerprogramms, wie etwa der Textverarbeitungssoftware, mit der ich diese Zeilen schreibe, in allen Details. Niemand kennt alle Einzelheiten seiner Arbeitsweise.

Es klingt vielleicht im ersten Moment ein bisschen seltsam, dass Menschen ein funktionierendes Softwareprogramm entwickeln können, ohne dass sie genau wissen, wie es im Detail arbeitet. Aber das ist ein Grundprinzip moderner Arbeitsteilung: Niemand versteht alles. Ärzte können eine Leber transplantieren, ohne zu verstehen, wie sie auf zellularer Ebene aufgebaut ist. Heizungsmonteure können Rohre auswechseln, ohne zu wissen, wie diese hergestellt werden oder welche Technik sich genau in der Brennkammer der Heizungsanlage verbirgt. Der Konstrukteur der Bremsanlage eines Autos muss nicht im Detail verstehen, wie ein Motor funktioniert oder wie die Materialien, die er verwendet, hergestellt werden. Gentechniker verändern Genome, ohne genau zu verstehen, welche Auswirkungen dies auf den Entstehungsprozess eines Lebewesens haben wird. Spezialisierung, ein wesentliches Merkmal unserer modernen Wirtschaft, führt dazu, dass der Überblick über das Ganze verlorengeht. Trotzdem funktioniert am Ende alles.

Jedenfalls meistens.

Ein wesentliches Problem der Komplexität ist aber, dass sich Fehler einschleichen. Je komplexer, desto mehr Fehler. Es ist leicht vorstellbar, dass ein 50 Millionen Zeilen langes Programm nicht ein Dutzend Fehler enthält, sondern viele Tausend. Natürlich findet auch die Fehlersuche längst mit Softwareunterstützung statt. Trotzdem ist es vollkommen unmöglich, ein so komplexes System völlig fehlerfrei zu machen.

Die Konsequenz erleben wir alle täglich, wenn wir mit dem Computer arbeiten: Kleine graue Fenster öffnen sich und fragen, ob man einen Fehlerbericht an den Hersteller senden möchte. Wir haben uns angewöhnt, unsere Arbeit häufig zwischenzuspeichern, weil wir jederzeit mit einem »Absturz« unserer Software rechnen müssen, der unter Umständen alles vernichtet, was wir seit dem letzten Speichern fabriziert haben. Alle Versuche, dieses Problem in den Griff zu bekommen, sind bisher gescheitert – im Gegenteil hat man das Gefühl, dass die Fehler eher zu- als abnehmen. Das ist auch daran zu erkennen, dass immer häufiger »Updates« – verbesserte Programmversionen – aus dem Internet heruntergeladen werden. Oft sogar, ohne dass wir das überhaupt bemerken.

Jemand hat einmal geschrieben: »Wenn Baumeister Häuser so bauen würden, wie Programmierer Programme schreiben, dann würde der erste Specht, der vorbeikommt, die Zivilisation zerstören.« Das ist ein bisschen unfair: Es ist viel leichter, ein Haus zu bauen, das nicht einstürzt, als ein Programm, das niemals versagt – eben weil Programme mit Hunderttausenden von Zeilen viel komplizierter sind als Architektenpläne.

Bisher haben wir über Computer auf unseren Schreibtischen gesprochen und über Programme, die wir bewusst verwenden. Doch Computer breiten sich, oft unbemerkt, immer mehr in unserem Leben aus. Ein ganz gewöhnliches Auto enthält heute bereits wesentlich kompliziertere Computertechnik, als sie die Apollo-11-Astronauten brauchten, um auf dem Mond zu landen. Computer sind nahezu überall zu finden – in Telefonen, Waschmaschinen, Radioweckern, Spielzeug. Und immer mehr von ihnen werden miteinander verbunden, über lokale Netzwerke oder über das Internet.

Ende 2008 entstand beispielsweise ein neuer Trend auf dem Strommarkt: Sogenannte »Smart Meter« messen den Stromverbrauch digital und übermitteln ihn via Internet direkt an den Stromlieferanten. Vorbei die Zeiten, da man in den Keller ging, um den Stromzähler abzulesen. Diese Geräte können aber nicht nur den Verbrauch automatisch übermitteln, sie können auch erkennen, welche Geräte besondere Energiefresser sind, und so beim Stromsparen helfen. In Zeiten steigender Energiepreise sicher eine nützliche Angelegenheit.

Augenblick mal, werden Sie jetzt vielleicht denken, jemand außerhalb meiner Wohnung kann sehen, ob ich gerade die Wäsche wasche, mir einen Kaffee koche oder ein Brot in den Toaster schiebe? In der Tat, so ist es. Aber mir geht es nicht um die Implikationen, die solche Technik für den Datenschutz hat. Smart Meter mögen durchaus nützlich, vielleicht sogar im Sinne der Energieeffizienz und des Umweltschutzes notwendig sein; sie sind inzwischen bei Neubauten sogar gesetzlich vorgeschrieben. Auf jeden Fall aber sind sie ein Beispiel für das subtile Eindringen der Computertechnik in immer mehr Lebensbereiche.

Wenn man Computer miteinander vernetzt, schafft man eine Komplexität, die noch einmal sehr viel größer ist als die Summe der Komplexität der Einzelteile. Das lässt sich an einem einfachen Rechenbeispiel verdeutlichen: Ein primitives Datennetz aus drei Knoten kennt drei mögliche Verbindungen, die jeweils ein- oder ausgeschaltet sein können. Das System hat dann 23 = 8 mögliche Zustände, je nachdem, welche Verbindung zwischen den Knoten aktiv ist und welche nicht. Fügt man zu einem solchen System nur einen weiteren Knoten hinzu, gibt es 6 mögliche Verbindungen, die Zahl der möglichen Zustände steigt somit auf 26 = 64. Noch ein weiterer Knoten, und wir sind schon bei mehr als 1 000 möglichen Zuständen. Ein System mit nur 10 Knoten, die alle untereinander verbunden sein können, hat mehr als 35 Billionen verschiedene mögliche Zustände.

Mit anderen Worten: Wenn wir ein rapide wachsendes System von miteinander vernetzten Computern schaffen, die jeder für sich immer leistungsfähiger werden, dann steigern wir die damit verbundene Komplexität ins Unermessliche. Man kann wohl davon ausgehen, dass das Internet mit allen daran angeschlossenen Computern inzwischen eine weit kompliziertere Struktur hat als ein menschliches Gehirn.

Die Mathematik liefert uns die Grundlage, um einzuschätzen, was wir von einem solchen komplexen, sich permanent dynamisch verändernden System erwarten dürfen. Und nicht umsonst heißt der betreffende mathematische Zweig »Chaostheorie«.

Es lässt sich zeigen, dass schon relativ simple Systeme nicht mehr vollständig berechenbar sind und es unter bestimmten Umständen zu überraschenden, »chaotischen« Schwankungen im Systemzustand kommt. Beispiele solcher chaotischen Systeme finden sich in der Natur zuhauf. Die Tatsache, dass wir trotz der unglaublichen Rechenleistung heutiger Systeme immer noch keine zuverlässige Wettervorhersage erstellen können, ist der chaotischen Natur des komplexen Systems der Atmosphäre geschuldet. Sie kennen vielleicht den Satz des »Schmetterlings in Tokio, der mit einem Flügelschlag in Frankfurt einen Sturm auslösen kann«. Kleine Ursache, große Wirkung – das ist typisch für komplexe Systeme, wobei man ergänzen muss, dass natürlich nicht jeder Flügelschlag eines Schmetterlings irgendwo einen Sturm auslöst. Solche chaotischen Systemveränderungen sind zum Glück selten – aber sie kommen vor, und zwar umso wahrscheinlicher und mit umso gravierenderen Auswirkungen, je komplexer die betreffenden Systeme sind.

Zwei praktische Beispiele mögen veranschaulichen, was das für uns alle bedeutet:

Mitte der sechziger Jahre entstanden die ersten kommerziellen Computersysteme für die betriebswirtschaftliche Verwaltung von Unternehmen. Programme wurden geschrieben, mit denen zum Beispiel automatisch Bilanzen erstellt und Rechnungen geschrieben werden konnten. Zu dieser Zeit war Speicherplatz ein sehr knappes Gut. Also versuchte man bei der Softwareentwicklung, Datensätze so kurz wie möglich zu halten. Beispielsweise speicherte man bei einem Datum nur die letzten beiden Ziffern der Jahreszahl ab – also »60« für »1960«. Vermutlich hatten die betreffenden Programmierer gar nicht erst darüber nachgedacht, aber wenn, hätten sie wohl nicht erwartet, dass die entsprechenden Programmroutinen um die Jahrtausendwende immer noch im Einsatz sein würden.

Doch so war es. Die frühen kaufmännischen Programme entwickelten sich weiter, Anwendungen wurden darum herum gebaut, doch in vielen Unternehmen gab es Mitte der neunziger Jahre immer noch Computersysteme, in deren Eingeweiden irgendwo noch Programmzeilen aus der Frühzeit der Computerentwicklung arbeiteten. Jedenfalls vermutete man das. Und so entstand das, was als »Jahr-2000-Problem« in die Technikgeschichte einging.

In jener Zeit war ich Geschäftsführer eines mittelständischen Unternehmens. Durchschnittlich einmal pro Woche erhielten wir einen Brief irgendeines unserer Kunden, der von uns eine schriftliche Erklärung erwartete, dass unsere Computersysteme »jahr-2000-fähig« seien – anderenfalls könne man uns als Lieferanten nicht mehr berücksichtigen. Aus heutiger Sicht kann man wohl von einer Hysterie sprechen, die die globale Wirtschaft ergriffen hatte. Man malte sich Horrorszenarien für den 1. Januar 2000 aus, wenn die Jahresziffern von 99 auf 00 umspringen würden. Kraftwerke, so hieß es, könnten ausfallen, die Stromversorgung zusammenbrechen. Der Absatz von Notstromaggregaten boomte, ängstliche Menschen deckten sich mit Vorräten für Wochen ein. Milliarden und Abermilliarden wurden investiert, um die verdächtigen Computersysteme zu modernisieren.

Dann kam der 1. 1. 2000, und es passierte praktisch gar nichts. All die Dieselaggregate blieben unbenutzt, die Wirtschaft funktionierte reibungslos.

Es gibt drei mögliche Erklärungen dafür, warum keine nennenswerten Probleme entstanden:

  1. Die Probleme wurden rechtzeitig erkannt und gelöst
    Vieles spricht dafür, dass dies in Teilen der Fall ist. Ich weiß von Fehlern, die tatsächlich eingetreten wären, wären sie nicht rechtzeitig behoben worden. Wer aber die Technik ein bisschen versteht, der kann sich kaum vorstellen, dass alle potenziellen Fehler rechtzeitig gefunden und behoben worden wären, wenn dies die einzige Erklärung wäre.
  2. Es war alles gar nicht so schlimm, die Computerindustrie hat das Problem nur aufgebauscht
    Tatsächlich erlebten Softwareanbieter und Systemintegrationsfirmen aufgrund der Annahme, ein solches Problem existiere, einen gewaltigen Auftragsschub. Der Verdacht liegt nahe, dass der eine oder andere Vertriebsmitarbeiter das Problem dramatischer darstellte, als es war, um das Geschäft anzukurbeln. Man kann wohl davon ausgehen, dass auch diese Erklärung in Teilen richtig ist.
  3. Wir wussten einfach nicht, was geschehen würde
    Niemand konnte genau sagen, welche Auswirkungen der »Jahr-2000-Fehler« haben würde. Die Komplexität der computerisierten Wirtschaft war viel zu groß, als dass selbst Experten sicher hätten sagen können, was am 1. 1. 2000 passieren würde. Es war vernünftig, auf »Nummer sicher« zu gehen und mehr Aufwand zu betreiben, als vermutlich nötig war. Dennoch konnte man nicht wissen, ob das, was man getan hatte, ausreichte.

Meines Erachtens kommt die dritte Sichtweise der Wahrheit am nächsten. Etwas süffisant könnte man sagen: Das eigentliche »Jahr-2000-Problem« war, dass wir nicht wussten, ob wir eins hatten.

Der Grund dafür ist einfach: Wir arbeiteten schon damals mit Systemen, deren Komplexität weit über unser Vorstellungsvermögen hinausging. Ob das Abkürzen der Jahreszahl auf zwei Stellen jener bildhafte Flügelschlag eines Schmetterlings hätte sein können, der das ganze System ins Chaos stürzen würde, konnte niemand wissen.

Glücklicherweise hat sich das System insgesamt als robuster erwiesen, als die Pessimisten befürchteten. Doch das »Jahr-2000-Problem« hat deutlich gemacht, dass komplexe Systeme nicht mehr voll beherrschbar sind. Dabei spielte das Internet in den neunziger Jahren nur eine untergeordnete Rolle; die Vernetzung der Computersysteme untereinander war bei weitem noch nicht so weit fortgeschritten wie heute.

Das zweite Beispiel für ein chaotisches Verhalten komplexer Systeme in der Realität ist sehr viel aktueller. Als ich im Herbst 2008 begann, dieses Buch zu schreiben, begann gerade die große Finanzkrise, die auch als »Jahrhundertkrise« bezeichnet wurde. Die Bundesregierung beschloss ein Rettungspaket in der beispiellosen Höhe von 500 Milliarden Euro, um die angeschlagene Finanzbranche zu stabilisieren. Weltweit wurden ähnliche Hilfsprogramme in einem Gesamtvolumen von mehreren Billionen Euro aufgelegt.

Es ist zum Zeitpunkt der Drucklegung dieses Buches noch zu früh, um zu bewerten, welche mittel- und langfristigen Auswirkungen diese Maßnahmen haben werden. Die Experten sind sich uneins, ob aufgrund der enormen in den Markt gepumpten Geldmenge eine Hyperinflation droht. Kurzfristig allerdings scheint eher das Gegenteil der Fall zu sein, denn aufgrund des Nachfragerückgangs sank die Preissteigerungsrate zum ersten Mal seit Jahrzehnten auf 0. Fest steht aber, dass sich die Volkswirtschaften der Welt bis an die äußersten Grenzen verschuldet haben, um die Finanzkrise in den Griff zu bekommen. Ihre Handlungsfähigkeit dürfte auf viele Jahre hinaus stark eingeschränkt sein, und wir können nur hoffen, dass wir nicht in fünf Jahren eine ähnliche Situation erleben.

Wie konnte es zu einer solchen Katastrophe kommen?

Mitte 2007 wurde die Überbewertung des Hypothekenmarktes in den USA offensichtlich. In der Folge fielen die Werte von Häusern und Grundstücken, womit die Besicherung der Darlehen, die amerikanische Hypothekenbanken ihren Privatkunden gewährten, plötzlich nicht mehr ausreichte. Es zeigte sich, dass das ganze Finanzierungssystem der US-Immobilienwirtschaft auf Sand gebaut war. Es kam zu Bankpleiten und massiven Kursverlusten. Doch die Börse erholte sich rasch wieder, und der Deutsche Aktienindex DAX erreichte im Dezember 2007 mit 8 076 Punkten beinahe den bisher höchsten Schlusskurs aller Zeiten von 8 106 Punkten.

Dann kam es im September 2008 plötzlich zu einem erneuten Ausbruch der Finanzkrise, diesmal noch weit dramatischer als beim »eigentlichen« Zusammenbruch des US-Immobilienmarktes ein Jahr zuvor. Die US-Investmentbank Lehman Brothers ging pleite, die übrigen großen Investmentbanken Morgan Stanley und Goldman Sachs – Namen, die jeden in der Finanzbranche jahrzehntelang vor Ehrfurcht erzittern ließen – gaben freiwillig ihren Sonderstatus auf und flüchteten sich als ganz normale Geschäftsbanken unter den Sicherheitsschutzschirm des amerikanischen Bankenrechts. Innerhalb von Tagen brach ein System, das jahrzehntelang den Weltfinanzmarkt entscheidend geprägt hatte, in sich zusammen. Es war sogar vom Ende des Kapitalismus die Rede.

Auch in Europa hatte die Krise dramatische Folgen. Der Immobilienfinanzierer Hypo Real Estate geriet an den Rand des Kollapses und konnte nur durch staatliche und private Garantien in Höhe von mehr als 50 Milliarden Euro stabilisiert werden. Praktisch alle Banken mussten massive Abschreibungen und Wertverluste hinnehmen. Der DAX fiel in wenigen Tagen um mehr als 20 Prozent und erlebte insgesamt die stärksten Kursschwankungen seiner Geschichte.

Auf der Suche nach Schuldigen für das Desaster wurde man schnell fündig: Die Bankmanager waren es natürlich, die Chefs der Lehman Brothers, der Hypo Real Estate und vieler anderer Banken, die in ihrer Gier so lange alles zusammengerafft hatten, bis sie den Ast, auf dem sie saßen, abgesägt hatten.

Sicher haben bei dieser Krise viele Manager Fehler gemacht; einige Vorwürfe in Bezug auf blinde Gier und Größenwahn mögen durchaus berechtigt sein. Tatsache bleibt jedoch, dass praktisch niemand Ausmaß und Zeitpunkt dieser Krise vorausgesehen hat. Ausgewiesene Finanzprofis und Kapitalmarkt-Experten wurden ebenso überrascht wie beispielsweise der frisch gekürte Wirtschaftsnobelpreisträger Paul Krugmann, der sagte, er habe »die Krise voraussehen müssen«, es aber nicht tat – von Finanzpolitikern und Wirtschaftsprofessoren ganz zu schwiegen.

Die globale Finanzkrise trägt alle Anzeichen einer chaotischen Schwankung in einem komplexen dynamischen System. Sie war damit prinzipiell nicht vorhersehbar, auch wenn es immer wieder warnende Stimmen gegeben hat.

Die Schwierigkeit liegt auch hier – ähnlich wie beim »Jahr-2000-Problem« – in der enormen Komplexität der Finanzmärkte. Die Wirtschaftsbeziehungen der Banken untereinander sind derart verschlungen, dass sie niemand mehr in allen Einzelheiten versteht. Banken leihen anderen Banken Geld, das sie sich selbst irgendwo geliehen haben.

Dabei spielen Computer eine zentrale Rolle. Zahlungstransaktionen werden heute selbstverständlich digital vorgenommen. So kam es im September 2008 zu einer ungewollten Überweisung von mehr als 300 Millionen Euro der Kreditanstalt für Wiederaufbau an die bereits unter Gläubigerschutz stehende Investmentbank Lehman Brothers, weil der entsprechende Zahlungsbefehl von einem Computer ausgeführt wurde, den niemand über die Finanzkrise informiert hatte. Computer und Internet ermöglichen eine noch stärkere Vernetzung der globalen Kapitalmärkte – eine Komplexitätssteigerung, die neue, noch kompliziertere Finanzprodukte ermöglicht und den Teilnehmern noch mehr Rendite beschert.

Da diese Produkte selbst von Profis kaum noch verstanden werden, überlässt man es Computern, zu beurteilen, welche Risiken sie beinhalten. Ja, Sie haben richtig gelesen: Bankmanager bewerten mit Hilfe sogenannter Risiko-Management-Software die Risiken von Investitionen und Anlageformen. Einer der führenden Hersteller solcher Software ist die kanadische Firma Algorithmics. Ihr Gründer Ron Dembo verkaufte diese Firma an die Fitch Group, deren Tochterfirma Fitch Ratings einschätzt, wie kreditwürdig Banken sind. Man kann sich denken, dass solche Banken, die Risikosoftware von Algorithmics verwenden, positiver beurteilt wurden als solche, die es nicht taten.

Die Mathematik der Risikobewertung in dieser Software ist kompliziert und wird nur von den wenigsten Bankmanagern verstanden. Die Software ist nicht an sich fehlerhaft. Doch wie bei jeder Software hängt das Ergebnis von der Eingabe ab. Sind die Annahmen über die Marktentwicklung zu optimistisch, ist auch die Risikobewertung zu positiv. Das Problem ist nicht, dass Bankmanager diese Software verwenden – das Problem ist, dass sie sie verwenden, ohne genau zu wissen, wie sie funktioniert. »Die Banken haben sich der Illusion von Risk Management hingegeben, nicht aufs große Bild geschaut«, kommentiert Ron Dembo in einem Interview der Financial Times. »’Ne Menge Mathe, ’ne Masse Regeln, null gesunder Menschenverstand.« Ein wesentlicher Teil der Kapitalmarktkrise dürfte demnach darauf zurückzuführen sein, dass sich allzu viele Entscheider in Banken blind auf die Technik verlassen haben, die sie nutzten.

Unermessliche Kapitalströme schwappen jeden Tag rund um den Globus wie Wasser in den Strudeln einer Meerenge. Es reicht ein vergleichsweise kleiner Auslöser – vielleicht die Pleite einer einzelnen Hypothekenbank in den USA –, um dieses System in Unruhe zu versetzen. Die Störung pflanzt sich fort und kann sich jederzeit verdichten und aufschaukeln, so wie bei unruhiger See mehr oder weniger zufällig und spontan gigantische Wellen, sogenannte Kaventsmänner von mehr als 25 Metern Höhe, entstehen können. Kein Computersystem kann diese Komplexität zuverlässig abbilden und vorausberechnen.

Es wird noch Jahre dauern, bis die Ursachen und Wirkungszusammenhänge der Krise in allen Details analysiert und verstanden worden sind. Schon jetzt steht allerdings fest, dass die Komplexität und damit die Unbeherrschbarkeit der Finanzmärkte die Krise erst ermöglicht, sie vielleicht sogar unausweichlich gemacht haben.

Ebenso steht fest, dass diese Krise nicht die letzte chaotische Systemschwankung gewesen sein wird. Wir bewegen uns auf eine Zukunft zu, die wir immer weniger verstehen, geschweige denn beherrschen, und die uns immer mehr Überraschungen bieten wird – angenehme wie unangenehme.

2. Was Darwin nicht wusste

Warum tun wir so etwas? Warum sind wir so verrückt, uns mit Technik zu umgeben, die wir nicht mehr beherrschen? Warum bauen wir komplexe Systeme, die chaotisches Verhalten an den Tag legen?

Bevor wir diese Frage beantworten, sollten wir uns vergegenwärtigen, dass komplexe Systeme, auch wenn sie chaotische Schwankungen aufweisen, nicht an sich negativ sind – im Gegenteil. Als es im Oktober 1929 zum bis dahin schlimmsten Börseneinbruch der Geschichte kam, reagierten die meisten Nationen mit protektionistischen Maßnahmen, um ihre heimatliche Wirtschaft vor den Folgen des globalen Abschwungs zu schützen. Sie koppelten sich quasi vom komplexen System der Weltwirtschaft ab, um ihre eigene Volkswirtschaft besser kontrollieren zu können. Der Effekt war genau das Gegenteil des Angestrebten: Der globale Handel brach zusammen und riss alle Länder in die tiefste Wirtschaftskrise aller Zeiten.

Heute haben wir die Chance, aus der Vergangenheit zu lernen und einerseits schneller und entschlossener, andererseits auch besonnener zu reagieren – dann wird die globale Wirtschaft den aktuellen Rückschlag wahrscheinlich viel besser »verdauen« als zur Zeit der Großen Depression. Ein Kurseinbruch von mehr als 10 Prozent, der damals Börsenmakler dazu trieb, sich aus dem Fenster zu stürzen, gehört heute zu den Ereignissen, mit denen man eben rechnen muss. Und viele Volkswirtschaftler hatten nach dem anhaltenden Aufschwung der Jahre 2003 bis 2008 ohnehin damit gerechnet, dass eher früher als später ein erneuter Rückgang folgen müsse, auch wenn niemand einen so rapiden Absturz erwartet hatte.

diagram_37_0.tif

Die Entwicklung des Menschen

Auch die Computer haben zweifellos viele Segnungen bewirkt, die Wirtschaft effizienter gemacht, unseren Wohlstand gemehrt und indirekt unser Leben verlängert. Dieses Buch ist kein Plädoyer gegen Technik!

Die Frage bleibt aber, warum wir diese Systeme nicht besser in den Griff bekommen, warum wir uns freiwillig und naiv in Abhängigkeit von ihnen begeben, warum wir ihrem krakenhaften Wachstum nicht früher Einhalt gebieten oder sie nicht wenigstens besser gegen solche chaotischen Schwankungen absichern.

Die Antwort darauf ist der Gegenstand dieses Buches. Sie liegt in einem wissenschaftlichen Gebiet, das auf den ersten Blick wenig mit Wirtschaft und Computern zu tun hat: in der Evolutionstheorie.

Sicher kennen Sie das berühmte Bild der graduellen Entwicklung des Affen zum Menschen, das Darwins Evolutionstheorie illustrieren soll.

diagram_38_0.tif

Stammbaum des Automobils

Nehmen Sie ein Buch über die Entwicklung des Automobils im 20. Jahrhundert in die Hand, und Sie werden ein sehr ähnliches Bild sehen: Eine graduelle Entwicklung von einem kutschenähnlichen Gefährt, bei dem die Pferde durch den Motor ersetzt wurden, bis zum schnittigen Sportwagen.

Noch deutlicher wird die Parallele, wenn Sie nicht nur eine bestimmte Entwicklungslinie verfolgen, sondern die ganze Breite der heutigen Modellpalette betrachten, vom Formel-1-Rennwagen bis zum Doppelstockbus, die auf einige wenige Urformen um 1900 zurückgeht. Der sich so ergebende »Stammbaum« des Automobils hat verdächtige Ähnlichkeit mit dem Stammbaum des Lebens, wie wir ihn aus dem Biologie-Lehrbuch kennen.

Ist diese Ähnlichkeit Zufall, oder steckt mehr dahinter? Um dieser Frage auf den Grund zu gehen, müssen wir uns näher damit beschäftigen, was Evolution eigentlich ist – und dabei einige populäre Irrtümer ausräumen.

Als Darwin »Die Entstehung der Arten durch natürliche Zuchtwahl« schrieb, leiteten ihn vor allem vier Erkenntnisse. Erstens wurde durch die damals entdeckten fossilen Skelette gigantischer, längst ausgestorbener Lebewesen klar, dass das Leben auf der Erde einmal ganz anders ausgesehen haben musste als heute. Zweitens wusste man, dass sich die Eigenschaften von Tieren und Pflanzen durch gezieltes Züchten graduell verändern ließen – Bauern machten sich diesen Umstand schon seit Jahrtausenden zunutze.

Drittens bewies Darwin während seiner Forschungsreisen, dass nicht nur menschlicher Eingriff, sondern auch unterschiedliche Umweltbedingungen diese »Zuchtwahl« ausüben können: Diejenigen Lebewesen, die besser an ihre Umwelt angepasst sind, haben eine größere Chance, sich zu vermehren. Sie werden von der Natur »ausgewählt«.

Viertens wurde bei näherer Betrachtung deutlich, dass die einzelnen Lebewesen sich zwar äußerlich stark voneinander unterschieden, jedoch in ihrem inneren Aufbau viele überraschende Ähnlichkeiten aufwiesen – darunter Eigenheiten, die ihnen keinen erkennbaren Vorteil brachten, wie etwa das Steißbein, der verkümmerte Schwanzansatz des Menschen. All das brachte Darwin zu der Erkenntnis, dass die Vielfalt des Lebens sich allmählich entwickelt haben musste – und sich noch weiter entwickelt.

Er wusste jedoch nicht, wie das geschieht. Er hatte keine Ahnung von Genen, kannte nicht einmal die Mendelschen Gesetze. Er hatte nur eine vage Vorstellung davon, dass Organismen irgendwie Kopien von sich selbst anfertigen können, die sich graduell vom Original unterscheiden. Er musste daher davon ausgehen, dass die Evolution – ein Begriff, der erst später geprägt wurde – auf einzelne Spezies wirkte, dass also Tiere und Pflanzen die primären Objekte des Wandels, die sogenannten Replikatoren, sind.

Dies ist ein fundamentaler Irrtum, der erstaunlicherweise bis heute nicht ausgerottet ist. Wer da wirklich ums »Überleben« kämpft, sind nicht Tier- und Pflanzenarten, sondern Gene.

Der britische Zoologe Richard Dawkins hat dies in seinen Büchern »Das egoistische Gen« und »The Extended Phenotype« umfassend dargelegt. Dawkins’ konsequente Weiterentwicklung der Evolutionstheorie Darwins hat die Evolutionsbiologie nachhaltig geprägt. Es lohnt sich deshalb, seine Grundgedanken genauer zu betrachten.

Wir wissen, dass die wesentlichen Eigenschaften eines Lebewesens in seinen Genen festgelegt sind. Sie bestimmen maßgeblich die Überlebenschance des Wesens und damit die Wahrscheinlichkeit, dass es sich fortpflanzen wird. Die Gene werden an die Nachkommen weitergegeben, wobei sie in den meisten Fällen mit den Genen eines zweiten Lebewesens derselben Spezies kombiniert werden. Man kann also das Lebewesen selbst als eine Art Gen-Kopierer ansehen. Zum entscheidenden Zeitpunkt der Fortpflanzung – der ersten Zellteilung eines Embryos – sind nur die Gene der Eltern anwesend. Nichts sonst wird dem neuen Lebewesen mit auf den Weg gegeben außer einer dünnen Zellmembran und ein paar Chemikalien. Die Gene sind das Einzige, was von Generation zu Generation »überlebt«.

Wenn aber die Gene darüber »entscheiden«, wie dieser Kopierer aussieht, und damit darüber, ob sie weiter kopiert werden oder nicht, dann sind sie es, die von der Natur »ausgewählt« werden, und nicht die »Kopierer«, also die Lebewesen. Die Gene sind die wahren Replikatoren, die eigentlichen Objekte der Evolution.