89%

UNSICHTBARE

GEFAHR

Ob man nun für oder gegen diese Entwicklungen sein mag – unser Weg in solch eine Richtung scheint vorgezeichnet. Doch wo viel zu gewinnen ist, verbirgt sich meist auch Potenzial für enorme Verluste. So wird es unerlässlich, sich kritisch mit den Folgen unseres Handelns auseinanderzusetzen, bevor wir einen bestimmten Weg unwiderruflich einschlagen. Denn, „wenn die Wahrscheinlichkeit besteht, von einer Maschine getötet zu werden, die man selbst geschaffen hat, ergreift man Maßnahmen, um sich zu schützen. Bis jetzt haben wir immer wieder gezeigt, dass wir in der Lage sind, unsere Maschinen unter Kontrolle zu halten.“

 

Diese Einschätzung des Philosophen Francis Fukuyama teilen auch Technologiegrößen wie Elon Musk, Bill Gates und Steve Woszniak. Sie haben sich im Januar 2015 mit äußerst anerkannten Vertretern der Forschungsgemeinde wie Stephen Hawking und 150 anderen Wissenschaftlern und Nobelpreisträgern zusammengetan, um einen offenen Brief zu unterzeichnen, der zwar die Vorteile von Künstlicher Intelligenz (KI) erwähnt, jedoch zu extremer Vorsicht bei der Entwicklung rät. „Wegen des enormen Potenzials von KI ist es wichtig zu erforschen, wie man ihre Vorteile ernten kann, während man gleichzeitig mögliche Fallgruben vermeidet“, heißt es dort. Die Vereinigung, unter deren Dach diese Kooperation stattfand, hat sich der vorsichtigen, aber bestimmten Regulierung von gefährlicher Zukunftstechnologie verschrieben. „Technologie gibt dem Leben das Potenzial zu florieren wie nie zuvor … oder sich selbst zu zerstören. Lasst uns etwas bewirken!“ ist dabei ihr Motto.

DIE TÖDLICHE GEFAHR DER ÜBERREGULIERUNG

Und selbst ein enthusiastisch, optimistischer Futurist wie Kurzweil sieht die Gefahren, die sich durch nicht regulierte Technologie ergeben werden. Er gibt in seinem Buch Menschheit 2.0 an, dass seiner Meinung nach „ein ausgewogenes Maß an Regulierung die ethisch richtige Reaktion auf die Gefahren der Technik des einundzwanzigsten Jahrhunderts ist“ Diese Regulierungen seien jedoch minimal zu halten, um die Geschwindigkeit des Fortschritts nicht zu behindern.

 

Der Vorsitzende der amerikanischen Waffenlobby erklärte im Jahr 2012 nach einem Amoklauf, dass „das Einzige, was einen bösen Typen mit einer Waffe aufhält, [...] ein guter Typ mit einer Waffe [ist]“. Ganz ähnlich argumentiert auch Kurzweil, dass wir bei zu strikter Regulierung von, in seinem Beispiel Biotechnologie, hinter den bösen Typen zurückbleiben würden und ihnen letztendlich schutzlos ausgeliefert wären. „Während ein Bioterrorist keine Genehmigung der FDA [Food and Drug Administration] für seine Erfindungen braucht, haben Wissenschaftler bei der Entwicklung von Schutztechniken bestimmte Regeln einzuhalten, was die Innovation konstant verlangsamt. [...] Es ist an der Politik, schnellstmöglich entsprechende Maßnahmen zu ergreifen, das heißt ethische und gesetzliche Richtlinien auszuarbeiten und die Entwicklung von Schutztechniken zu fördern.“

 

Damit spricht er sich zwar explizit für eine Regulierung und ethische Einordnung von zukünftiger Technologie aus, gibt aber gleichzeitig an, dass diese schnell und leicht anwendbar sein sollte, um die Entwicklung von Techniken zur Verteidigung gegen böse Typen nicht zu verlangsamen. Die momentane Entwicklungsverzögerung durch die Regulierung der FDA von bis zu über fünf Jahren, sei in einem akuten Bedrohungsszenario fatal.

WER REGULIERT, VERARMT

Als Argument, den staatlichen Einfluss auf den Fortschritt so gering wie möglich zu halten, führt Kurzweil auch wirtschaftliche Aspekte an.

Er stellt in Aussicht, dass uns „die andauernde Beschleunigung der vielen ineinander verwobenen Techniken [...] goldgepflasterte Straßen bereiten [wird]. [...] Im wirtschaftlichen Wettbewerb ist das Beschreiten dieser Straßen ein ökonomischer Imperativ. Der Verzicht auf technischen Fortschritt wäre für Einzelpersonen, Firmen und Nationen gleichermaßen wirtschaftlicher Selbstmord“.

 

Jedoch sei genau diese Aussicht auf finanziellen Erfolg ein weiterer Grund, einflussreichen Technologiekonzernen klare Grenzen zu setzen, meint Fukuyama. Denn „Projekte der Selbstkontrolle bewähren sich in Situationen, in denen ein Industriezweig nur geringe soziale Kosten verursacht, bei denen die Fragestellungen eher technischer Natur und politikfern sind und wenn für den betreffenden Wirtschaftszweig ohnehin starke Anreize zur Selbstkontrolle bestehen“. In anderen Bereichen, wie zum Beispiel biomedizinischen Technologien, sei Selbstkontrolle von vornherein zum Scheitern verurteilt, denn es gäbe ­„inzwischen zu viele kommerzielle Interessen“.

 

Dennoch ist eine grundlegend ablehnende Haltung gegenüber Technologie laut dem Wissenschaftsjournalist Marcel ­Hänggi der falsche Weg. Er stellt fest, dass „es zwischen Mensch und Technik keine klare Grenze gibt. Der Mensch ist immer Mischwesen zwischen Natur und Kultur“. „Der Mensch ist Mensch, seit und indem er Werkzeuge benutzt. Es gibt keine Kultur ohne Technik.“

 

Auch das Verbot einzelner Forschungszweige aus Vorsicht, hält Kurzweil für unmöglich und sogar unmoralisch. „Sollen wir den Millionen von Menschen, die an Krebs oder anderen schweren Krankheiten leiden etwa erzählen, dass wir die komplette Forschung zu biotechnischen Heilverfahren einstellen, weil diese Technik eines ­Tages zu bösartigen Zwecken missbraucht werden könnte?“

 

Laut Fukuyama sind dagegen nicht einmal die Wissenschaftler selbst fähig, die Folgen ihrer Forschung vorherzusehen und daher bestimmte Wege nicht zu beschreiten. „Die Naturwissenschaft ist selbst außerstande, die Ziele ihres Tuns zu bestimmen. Die Wissenschaft kann Impfstoffe und Therapien gegen Krankheiten entdecken, aber sie kann auch die Träger von Infektionen hervorbringen; [...] Nur ‘die Theologie, die Philosophie oder die Politik’ können die Ziele der Wissenschaft und der von der Wissenschaft hervorgebrachten Technologien bestimmen, nur sie können feststellen, ob diese Ziele gut oder schlecht sind.“

ALLIANZ DER GUTEN UND VERNÜNFTIGEN

Für Fukuyama folgt daraus, dass die regulatorische Verantwortung bei den Regierungen liegen muss. Diese Normen müssten von einzelnen Nationen mit Vorbildfunktion eingeführt und nach und nach zu internationalen Standards werden. „Die einzige Methode, die Ausbreitung von Technologien zu kontrollieren, besteht in internationalen Vereinbarungen über respektive Normen, die außerordentlich mühsam auszuhandeln und noch schwieriger durchzusetzen sind.“

 

Doch auch die Annahme, dass diese Normen in Zukunft bestimmt oft übergangen werden, ist für Fukuyama kein Anlass, grundsätzlich auf deren Einführung zu verzichten. „Kein ­Gesetz wird jemals hundertprozentig durchgesetzt. In allen Ländern gilt Mord als Verbrechen und die Vernichtung menschlichen Lebens wird schwer bestraft, dennoch kommt es zu Tötungsdelikten. Die Tatsache, dass sie sich ereignen, hat niemals als Grund genügt, entsprechende Gesetze zu streichen oder Versuche ihrer Durchsetzung aufzugeben.“ Als Beispiel gelungener Regulierung führt er die Wahrung der Menschenwürde in medizinischen Versuchen an.

 

Dennoch ist immer mehr zu sehen, dass Wissenschaftler aus Staaten, in welchen solch eine Regulierung besteht, nicht nur ethische, ­sondern auch staatliche Grenzen überschreiten, um ihre Ziele zu erreichen. So reiste erst Ende 2015 der CEO ­einer amerikanischen Biotechfirma nach Kolumbien, um im Selbstversuch eine in ­Amerika nicht genehmigte Gentherapie zur Verjüngung ­ihres Körpers durchführen zu lassen.

 

Fukuyama ist deshalb der Ansicht, die Menschen müssten stets mit offenen Augen Vor- und Nachteile von radikalen Zukunftstechnologien abzuwägen:

 

„Viele nehmen an, dass die posthumane Welt sehr stark unserer jetzigen ähneln wird – daß sie von Freiheit, Gleichheit, Wohlstand, Nächstenliebe, Mitmenschlichkeit geprägt sein wird –, nur eben mit besserer Gesundheitsfürsorge, einem längeren Leben und möglicherweise auch mehr Intelligenz als heute. Aber die posthumane Welt könnte auch viel hierarchischer und wettbewerbsorientierter als die heutige sein, und das würde in der Folge zu zahlreichen sozialen Konflikten führen. [...] Wir müssen uns nicht für Sklaven eines unvermeidlichen technologischen Prozesses halten, wenn dieser Prozeß nicht menschlichen Zielen dient.”

Was können wir aus all diesen Dingen für unser eigenes Leben lernen?

Quellen

Hänggi, M.: Fortschrittsgeschichten, FISCHER Taschenbuch, Frankfurt am Main, 2015

Fukuyama, F.: Das Ende des Menschen, Deutsche Verlags-Anstalt, Stuttgart,

München, 2002

Kurzweil, R.: Menschheit 2.0, Die Singularität naht, Lola Books, Berlin, 2013

A Tale of Do-It-Yourself Gene Gherapy - MIT Technology Review