Ordnungspolitik

Warum wir den Entdeckergeist verloren haben – und wie wir ihn wiederfinden

Politik und Medien begegnen technischen Innovationen heute nicht mehr mit Begeisterung, sondern mit Furcht. Dabei herrscht an ehrgeizigen Ideen kein Mangel – es bräuchte nur ein wenig Mut.

Im Jahr 1965 veranstaltete die Debattiergesellschaft meiner alten Schule einen Elternabend, bei dem das Thema „Uns ist der Abenteuergeist verloren gegangen“ diskutiert wurde. Bald widerlegte jemand aus dem Publikum die These. Sein Argument? „Letzte Woche spazierte ein Mann im All.“ Er bezog sich auf den sowjetischen Kosmonauten Alexei Leonov.

Mehr als 50 Jahre später ist die Sache nicht mehr so einfach. Innovation und persönliches Heldentum gibt es nach wie vor, doch die Gesellschaft wird heute auch von dunklen Vorahnungen geprägt. Technikfans bejubeln munter „disruptive“ Technologien und nennen immer wieder dieselben müden Beispiele (Airbnb, Uber). Als Beobachter mit wenig Sinn für Nostalgie stelle ich fest: Der Entdeckergeist in der Technologiebranche ist auf einem Tiefstand.

Ein aufschlussreiches Beispiel hierfür bietet der Zeitraum vom Sputnik-Start 1957 bis 1965.  Gordon Moore, der spätere Mitbegründer von Intel, publizierte 1965 seinen berühmten „Moore’s Law“-Artikel. Moore wies darauf hin, dass sich von 1962 bis 1965 die Anzahl an Transistoren pro Chip jedes Jahr ungefähr verdoppelt hatte. Mit der wachsenden Dichte der Transistoren wächst auch die Rechenleistung eines Computers exponentiell, ohne dass dabei die Herstellungskosten steigen. Moores Beitrag enthält einen Cartoon eines Geschäftsmanns, der von einem Kiosk aus handliche Heimcomputer zu Schleuderpreisen anbietet. Man hatte damals eindeutig ein Gespür für Zukunftschancen.

Stellen wir dem die gegenwärtige Ära gegenüber. Seit dem Ende des Kalten Krieges und dem Angriff auf das World Trade Center haben Zukunftsängste dramatisch zugenommen – und damit auch die Skepsis gegenüber technologischem Fortschritt im Allgemeinen.

Es zeigen sich im Wesentlichen vier nennenswerte Probleme. Um auf Nummer sicher zu gehen, werden Risiken von Experten oft dramatisch überbewertet. Ein Beispiel ist der sogenannte Millennium Bug. In den späten 1990er-Jahren nahm man an, es bestünde ein grundlegendes Problem mit alten IT-Systemen. Man befürchtete, die IT-Ausrüstung sei nicht fortschrittlich genug, um den Übergang von „99“ zu „00“ („Y2K“) zu meistern.

1997 riet das IT-Beratungsunternehmen Gartner Group Geschäftsleuten, ihre besten Kräfte auf die Lösung des Y2K-Problems anzusetzen. Später warnte Gartner, Y2K könne zu Benjamin Franklins zwei bekannten Gewissheiten – Tod und Steuern – hinzugefügt werden. Die Lösung des Y2K-Problems würde etwa 300 bis 600 Milliarden Dollar kosten. Unternehmenspleiten würden „dramatisch“ ansteigen. Der Wert der infolge der wegen Y2K entstehenden Klagen würde sich allein in Amerika auf etwa eine Billion Dollar belaufen.

Derselbe Alarmismus infizierte auch den normalerweise nüchternen Economist. Die britische Journalistin und Wirtschaftswissenschaftlerin Frances Cairncross nannte Y2K in einem Beitrag für das Blatt „beängstigend in der Unberechenbarkeit seiner Konsequenzen“. Die britische Regierung richtete als Antwort auf Y2K sogar eine eigene Behörde ein. Deren Vorsitzender schlug 1998 vor, zwei Wochen an Notfallvorräten für den Jahrtausendwechsel anzulegen.

Doch nachdem der Tag endlich gekommen war, fielen keine Flugzeuge vom Himmel und Anwälte weinten nicht vor Freude. Russland, Italien und China – angeblich besonders anfällig für Y2K – existierten weiter.

Haben die ganzen Vorbereitungen in diesem Fall echte Probleme abgewendet? Zweifellos. Haben IT-Firmen dadurch gewaltige Gewinne einfahren können? Natürlich. Haben sich die Katastrophenvorhersagen dennoch als weit übertrieben herausgestellt? Eindeutig. Und haben diese Vorhersagen in der Öffentlichkeit die Sichtweise genährt, dass „Experten“ gelegentlich in ihren Prognosen falsch liegen? Definitiv.

Was die Überbewertung von Risiken betrifft, war die Panik um Y2K kein Einzelfall. So sorgte sich die Wall Street bei einer Anhörung im Jahr 2006 nicht etwa um Amerikas wachsende Spekulationsblase bei Wohnbaufinanzierungen. Stattdessen ging es darum, „welche Art von Hygieneartikeln wie z.B. Mundschutz-Masken“ Mitarbeiter brauchen, um gegen die Vogelgrippe gewappnet zu sein. Die Kultur fehlgeleiteter Vorsicht eröffnete ein neues Jahrhundert, das von einem Zeitgeist der Angst geprägt war. Die Folge: eine Stigmatisierung mutiger Innovationen.

Aufgebauschte Risiken, verpönte Innovation

Die Besessenheit von Risiken behindert den Fortschritt. Ein Beweis dafür ist das zweite wesentliche Problem unserer überempfindlichen Generation: die Art und Weise, wie Medien und andere Akteure mögliche Risiken aufbauschen.

Man nehme z. B. die Katastrophe von Fukushima. Am Morgen des 17. März 2011 meldete der Daily Telegraph (der nicht unbedingt für Öko-Sympathien bekannt ist): „Nur 48 Stunden, um ein nächstes Tschernobyl zu verhindern.“ Die Reaktion Angela Merkels in Deutschland war ebenso risikoscheu: Sie entschied, die Atomenergie gleich ganz auszumustern.

Aber wie viele Menschen starben wirklich aufgrund der ungünstigen Lage Fukushimas, besonders im Vergleich zu Erdbeben und Tsunamis, die Japan ebenfalls erschütterten? Keine. Umweltrisiken werden aufgebauscht, während man Innovationen verhindert, die helfen könnten, mit eben diesen Risiken umzugehen.

Ich lebe in der Nähe der Putney High Street in London und lege entsprechenden Wert auf frische Luft. 2016 verletzte die Durchgangsstraße die rechtlich festgelegte Grenze für Stickstoffdioxid von 40 Mikrogramm pro Kubikmeter. Messungen kamen auf 125 Mikrogramm pro Kubikmeter. Londons Bürgermeister Sadiq Khan versprach daraufhin eine Verdopplung der finanziellen Mittel, um die Luftverschmutzung zu bekämpfen. Er investierte 312 Millionen Pfund, um die 9300 Busse der Hauptstadt umzurüsten, und 65 Millionen Pfund, um den Fahrern von zehn Jahre alten Taxen einen Umstieg auf Elektro- oder Wasserstoffantrieb zu ermöglichen.

Man will Dieselnutzer besteuern und Londons Umweltzone erweitern, anstatt ein Risiko einzugehen und in die Forschung und Entwicklung von Lösungen wie luftreinigende Pflastersteine zu investieren. Diese könnten Stickstoffoxid- und Stickstoffdioxid-Konzentrationen um 25 bis 45 Prozent reduzieren.

Ähnlich ist die Situation beim Thema Feinstaubemissionen. In den Niederlanden hat die Designfirma Studio Roosegarde einen riesigen Luftfilter entwickelt. Dieser Turm kann in einer Stunde 30.000 Kubikmeter Luft verarbeiten und dabei 75 Prozent der schädlichen Partikel beseitigen.

Warum haben wir nicht den Mut, mit derartigen Technologien zu experimentieren? Sind solche Ansätze nicht besser, als vermeintlich ignorante Autofahrer mit Bußgeldern zu bestrafen? In Städten wie Delhi, Peking und Paris sollen Autofahrer dazu gebracht werden, nur jeden zweiten Tag mit dem Auto zu fahren. Solche sogenannten „odd-even“-Pläne senken die Produktivität urbaner Gebiete und strafen das Gerede von „intelligenten“ Städten Lügen.

Panikreaktionen versus Geduld

Ein drittes Problem mit der teils unterbewussten, teils expliziten Angst vor dem technischen Fortschritt ist, dass wir Zukunftsrisiken voller Panik in die Gegenwart verlagern. Ein besonders lächerliches Beispiel für diese Praxis bietet Prinz Charles. Im Juli 2009 warnte er, dass die Menschheit nur noch 96 Monate habe, um ein „endgültigen Kollaps des Klimas und des Ökosystems“ zu verhindern. Wohl aus Sorge um seinen Ruf revidierte er seine Vorhersage 2015. Nun blieben uns noch 35 Jahre, um einen katastrophalen Klimawandel abzuwenden.

Wie die meisten Ökoideologen glaubt Charles, dass es zwei wesentliche Wege gibt, den Planeten zu retten: Jeder Einzelne soll durch sein persönliches Verhalten Zeichen setzen, und Unternehmen müssen soziale Verantwortung übernehmen. Figuren wie Prinz Charles glauben tatsächlich, dass symbolische Gesten der Tugend und Rechtschaffenheit etwas bewirken können. Andererseits betrachten sie langfristige Forschungs- und Entwicklungsprogramme, die wirklich etwas gegen den Klimawandel ausrichten könnten, als zu langsam und zu unsicher.

Wir hören z. B. kaum etwas von den Anstrengungen, CO2-Emissionen von Kohle- und Gasanlagen einzufangen und preisgünstig zu verarbeiten. In Amerika arbeiten etwa die Sandia National Labs an Nanomembranen, die 2000 mal dünner als menschliche Haare sind. Diese werden mit dem schnell wirkenden Enzym Carboanhydrase imprägniert. Das CO2, das durch solche „Memzyme“ erfasst wird, weist eine Reinheit von 99 Prozent auf. Daher kann es – neben zahlreichen anderen Anwendungen – an Algen verfüttert werden, die so wiederum Biokraftstoff produzieren können. Erfolge im Kampf gegen den Klimawandel erfordern Geduld, keine Kurzschlussreaktionen. Das Beispiel der „Memzyme“ aber zeigt: Entgegen all der schlechten Presse ist Kohlenstoff geradezu ein „Wunder-Element“.

Als ich noch zur Schule ging, wurden viele Innovationen als „Wunder“ beschrieben. Das ist heute kaum noch der Fall. Tatsächlich wird über potentielle technologische Wunder (wie z. B. die „Memzyme“) kaum gesprochen. Kommentatoren schüren stattdessen Panik. Sie reduzieren Innovation auf die IT-Branche und die IT-Branche auf neue „Geschäftsmodelle“ (also neue Wege, den Menschen Geld abzuknöpfen). Die Krone dieses anspruchslosen Denkens ist der Trend, besonders clevere Software als „künstliche Intelligenz“ zu vermarkten.

Ein viertes Problem unserer risikoscheuen Zeit ist die Furcht vor den Folgen neuer Technologien. Die betreffenden Technologien müssen noch nicht einmal existieren. Wir sehen dies z. B. in der Angst, dass künstliche Intelligenz und Roboter die Weltherrschaft übernehmen werden. In Wahrheit sind wir davon sehr, sehr weit entfernt.

Ein anderes Beispiel kommt aus einer Branche, die sich noch langsamer entwickelt als die IT. Der Guardian ist sich sicher, dass „wir unser Leben zunehmend selbstfahrenden Autos anvertrauen“. Daher werde das Hacken von Autos in Zukunft „früher oder später jeden treffen“. Stimmt das?

Ja, in der britischen Stadt Milton Keynes haben Testversuche mit selbstfahrenden Autos bereits begonnen. Aber werden sie deshalb bald den Markt beherrschen? Das angesehene Statistikunternehmen Statista sagt voraus, dass im Jahr 2025 vollautomatische oder „hoch“ automatische Fahrzeuge vier Prozent der Neuverkäufe von Autos und Lastwagen ausmachen werden. Bis zum Jahr 2030 erwartet man einen Marktanteil von 25 Prozent. Mag diese Prognose auch ein wenig optimistisch sein, sie bildet einen guten Ausgangspunkt.

Neuregistrierungen von Autos und Lastwagen im Vereinigten Königreich werden für 2016 auf 2,6 Millionen geschätzt. Die absolute Anzahl an Autos auf den Straßen im selben Jahr schätzt Statista auf 31,7 Millionen.  Nehmen wir nun wohlwollend an, dass der Marktanteil selbstfahrender Autos trotz ihres Preises 2017 auf die von Statista geschätzten vier Prozent klettert – neun Jahre früher als von Statista geschätzt. Nehmen wir außerdem an, dass der Boom autonomer Fahrzeuge andauert. Demnach würden den Straßen des Vereinigten Königreichs jedes Jahr 104.000 neue selbstfahrende Autos hinzugefügt. Zusammengerechnet über die neun Jahre bis hin zum Jahr 2025 ergäbe dies eine Gesamtzahl von 0,936 Millionen Fahrzeugen.

Selbst nach dieser enorm optimistischen Prognose werden bis 2026 nicht einmal drei Prozent der Autos im Vereinigten Königreich selbstfahrend sein. Natürlich ist es möglich, dass Großbritanniens Autoflotte in der Zwischenzeit noch schrumpft, wodurch meine bescheidenen drei Prozent einfacher zu erreichen wären (obwohl ein solcher Rückgang zweifellos auch den Verkauf der teuren selbstfahrenden Autos beeinflussen würde).

In jedem Fall wird es frühestens Mitte der 2030er einen wahrnehmbaren Anteil autonomer Fahrzeuge auf Großbritanniens Straßen geben. Trotzdem sollen wir uns schon heute – 2017 – um das Hacking selbstfahrender Autos Sorgen machen.

Sollen wir also überhaupt autonome Fahrzeuge entwickeln? Was ist mit den ethischen Entscheidungen, die diese im Falle eines bevorstehenden Unfalls treffen müssten? Sollten wir selbstfahrende Autos nicht lieber sofort verbieten, selbst wenn diese sicherer als konventionelle Autos wären?

Fazit

Donald Trump hat den Fehler gemacht hat, den wirtschaftlichen Niedergang der USA allein den Handelspraktiken Chinas zuzuschreiben. Seine Kritiker behaupten nun, dass Automatisierung und nicht Handel der entscheidende Faktor bei der Zunahme der Arbeitslosigkeit sei. Wenn das tatsächlich der Fall ist, warum stagniert dann die Produktivität der USA schon seit geraumer Zeit? Und warum ist die Arbeitslosigkeit dabei relativ gering? Warum sehen wir in Großbritannien ähnliche Tendenzen?

Es wäre allzu einfach, die heutigen Vorbehalte gegenüber Technologie allein auf ökonomische Zwänge zurückzuführen oder aber auf Angstmache von Seiten der Politik. Diese Dinge spielen sicherlich eine Rolle, aber die Herausforderung ist viel größer. Unternehmen schreiben nur widerwillig gesunkene Kosten ab und fangen von vorne an. Aber ein viel größeres Problem sind ihre falschen Prioritäten. Man investiert in Unternehmenskäufe, Aktienrückkäufe und die Zahlung von Dividenden an Aktionäre, anstatt Forschung und Entwicklung auszuweiten. Den Unternehmen ist es wichtiger, Eigentum zu besitzen, als neue Güter und Dienstleistungen zu entwickeln. Man konzentriert sich auf die kommerzielle Seite geistigen Eigentums statt auf die intellektuelle. Das führt, trotz des Geredes von „Deregulierung“, zu immer neuen, kleinlichen Vorgaben.

Wer die Schuld auf eine allgemeine Verunsicherung in Folge des Brexit-Referendums und der Trump-Wahl schiebt, denkt zu kurz. Es gibt immer eine gewisse Unsicherheit in der Welt und die heutige lässt sich kaum vergleichen mit der Unsicherheit, die beispielsweise während der Evakuierung von Dünkirchen (1940) oder der Kubakrise (1962) bestand.

Wenn wir echte Innovationen wollen, müssen wir zu der Idee zurückfinden, dass wir die dunkle, unsichere Zukunft durch wissenschaftliche und technologische Experimente bezwingen und Risiken quantifizieren und kontrollieren können.

Kurz nachdem ich 1966 die Schule verließ, beflügelte mich die Veröffentlichung eines Buchs mit dem Titel „We built our own computers“ (wir bauten unsere eigenen Computer). Zu bauen, zu irren, aus Fehlern zu lernen, zu experimentieren – das war der Ethos jener Zeit. Meine Schule, Rokeby, wollte die Schüler herausfordern. Im Gegensatz zu heute ging es nicht darum, das Selbstwertgefühl oder die Zufriedenheit der Schüler zu steigern oder „Safe-Spaces“ zu schaffen.

Politisch halte ich nicht viel von Präsident Kennedy. Doch 1962 sprach er in seiner berühmten Rede zum US-Raumfahrtprogramm die folgenden Sätze:

„Wir haben uns entschlossen, zum Mond zu fliegen. Wir haben uns entschlossen, in diesem Jahrzehnt zum Mond zu fliegen und noch andere Dinge zu unternehmen, nicht weil es leicht ist, sondern weil es schwer ist, weil das Ziel dazu dient, das Beste aus unseren Energien und Fähigkeiten zu organisieren und zu messen, weil die Herausforderung eine ist, der wir uns stellen wollen, die wir nicht verschieben wollen und die wir zu gewinnen beabsichtigen, genau wie die anderen auch.“

Kennedy spricht aus Überzeugung. Er spricht von Abenteuergeist. Damit meint er nicht nur technologische Neuerungen, sondern auch einen allgemeinen Ehrgeiz. In seiner Rede kommen neben der Raumfahrt etwa das Bergsteigen und der erste Flug über den Atlantik vor.

Wir müssen diesen Geist wiederbeleben, wenn wir die technologische Innovation rehabilitieren und uns aus der traurigen Lage befreien wollen, in der wir momentan stecken.

Dieser Beitrag ist zuerst im Magazin Novo Argumente erschienen.

Keinen Ökonomen-Blog-Post mehr verpassen? Folgen Sie uns auf Facebook und Twitter, und abonnieren Sie unseren WhatsApp-Nachrichtenkanal, RSS-Feed oder unseren Newsletter.