In der Forschung das Gute tun und das Böse erwarten

Dual Use

Im Gegensatz zu anderen Bereichen herrsche in der Neurotechnologie Wilder Westen, sagt der Fachmann. Auf dem Spiel stehe das Recht auf mentale Privatsphäre.

Das ist keine Science-Fiction. Es passiert. Seit Jahren schon können Implantate Funktionen des Gehirns beeinflussen und auf diese Weise beispielsweise die Symptome der Parkinson-Krank­heit wirksam bekämpfen.

Es ist möglich, allein durch Gedanken Prothesen zu steuern, und zwar via Gehirn-Computer-Schnittstellen, sogenannten BCI. Es gibt Firmen, die Geräte mit Elektroden anbieten, welche die geistige Leistungsfähigkeit steigern sollen. Und es gibt Headsets für Smartphones, die eine Bedienung via Gehirnsignale erlauben. Und unter anderem auch Facebook forscht an BCI, die Tastatur, Touchscreen und Mikrofon überflüssig machen.

Die Möglichkeiten, das menschliche Gehirn technisch zu nutzen und zu beeinflussen, entwickeln sich rasant. Mit den Chancen und Gefahren der Neurotechnologie befasst sich Marcello Ienca seit Jahren intensiv. Der 30-jährige Wissen­schaft­ler aus Italien hat Philosophie, Kognitionswissenschaft und biomedizinische Ethik studiert und in den USA zu Gehirn-Computer-Schnittstellen geforscht. Heute ist er Bioethiker an der ETH Zürich.

Vier neue Menschenrechte

«Forschung soll nicht verhindert werden, auch militärische nicht», stellt Ienca klar. Zahlreiche zivil genutzte Innovationen sind militärischen Ursprungs. In den USA zum Beispiel forscht das Militär zurzeit daran, durch Stimulationen Aufmerksamkeitsmängel zu mindern. «Das finde ich an sich ethisch nicht problematisch», sagt Ienca. Heikel sei aber für die amerikanischen Soldaten ein Paragraf im Militärgesetz: dass sie medizinische Handlungen zu akzeptieren hätten, die sie physisch verändern können.

Bereits die bestehenden Möglichkeiten, menschliche Persönlichkeiten zu beeinflussen, hält Ienca für zu wenig reguliert. Das Gehirn als «letzter Ort vollkommener Privatheit» stehe kurz davor, gläsern zu werden. Daher hat der Neuroethiker mit Roberto Andorno, Rechtsprofessor an der Universität Zürich, 2017 im Fachblatt «Life Sciences, Society and Policy» vier neue Menschenrechte postuliert. Die beiden Wissenschaftler fordern ein Recht auf «mentale Privatsphäre»: Daten von neurologischen Aufzeichnungen sollten nur für ihren vorbestimmten Zweck genutzt und dann gelöscht werden. Das Recht auf «kognitive Freiheit» würde Menschen vor einem Zwang schützen, Daten preiszugeben. Davon würden Soldaten profitieren, die in einem Abhängigkeitsverhältnis stehen und sich bisher kaum wehren können.

Mit dem Recht auf «psychologische Kontinuität» sollte ganz einfach jeder Mensch vor ungewollten Persönlichkeitsveränderungen geschützt werden. Und schliesslich fordern Ienca und Andorno die Erweiterung des bestehenden Rechts auf «geistige Unversehrtheit»: Dabei geht es um die neuen technischen Gefahren bei physischen und psychischen Verletzungen, wie sie etwa beim Hacken von Implantaten bei Patienten mit Hirnerkrankungen drohen können.

Doch hat nicht praktisch jede Erfindung eine Dual-Use-Dimension und damit ein Gefahrenpotenzial? Ienca widerspricht nicht, aber im Vergleich mit Messern oder Autos könne Neurotechnologie sehr präzis und effizient missbräuchlich ein­gesetzt werden und die persönliche Integrität verletzen. Und er verweist darauf, dass bereits nach der Entschlüsselung der menschlichen DNA 1997 die Menschenrechte angepasst wurden: um den Schutz der persönlichen genetischen Daten.

Die Naivität der Forscher

Auch unterhalb der Ebene der Menschenrechte fordert Ienca Regulierungen. In einer Studie in Zusammenarbeit mit der Universität Basel fordert er ein Konzept für Sicherungsmassnahmen in der Neu­ro­tech­nologie. Regeln darüber, wie Unternehmen mit neurologischen Daten umgehen sollen, fehlten: Was sie mit welchen Geräten sammeln, speichern und wie verwenden dürfen. Ferner zeigten Studien, dass den Forschenden oft ein Bewusstsein für Missbrauchspotenziale feh­le. In der Neurotechnologie herrsche noch Wilder We­s­ten, bilanziert Ienca. «Ethische Fragen müssten aber zwingend bereits im Stu­dium dieses Gebiets behandelt werden.»

Im Bereich der «Life Sciences» ist das Dilemma des Dual Use schon länger im Gespräch. «Life Sciences» um­­­fasst Biologie inklusive Molekularbiologie, Medizin und Gentech­nik. Anna Deplazes Zemp ist Bioethikerin mit einer Ausbildung in Molekularbiologie an der Universität Zü­rich, sie kennt die Praxis. Und die beinhaltet viel Kleingedrucktes: «Es gibt internationale Vereinbarungen und braucht Bewilligungen für die Arbeit etwa mit gentechnisch veränderten Organismen, der Import und Export ist streng geregelt. Regulatorisch ist viel umgesetzt.» Und es gibt internationale, nationale und auf Universitätsebene gültige Leitlinien, unterschrie­be­ne Erklärungen von Doktoranden, dass sie – salopp gesagt – nur Gutes tun. Zudem werden Forschen­de mit Kursen in Ethik sensibilisiert. «Das müsste aber verstärkt werden», sagt Deplazes Zemp. «Es ist dringend nötig, Wissenschaftlerinnen und Wissenschaftlern die Naivität zu nehmen.»

Mehr Regeln hingegen förderten ethisches Verhalten kaum – im Gegenteil: «Wenn Regeln mechanisch abgehakt werden, kann das den Blick für Unerwartetes und fürs Gan­ze trüben und die Übernahme von Eigenverantwortung schwächen.» Das sei kontraproduktiv, vor allem in einer immer stärker spezialisierten Forschungswelt mit steigendem Publikationsdruck, «wo jeder auf die Details des eigenen Fachgebiets fokussiert ist».

Regeln gibt es zu Dual Use bereits schwindelerregend viele, vor allem in der Exportwirtschaft. Das zeigt ein Gespräch mit Patrick Edgar Holzer, dem Leiter des Ressorts Exportkontrollpolitik Dual-Use im Staatssekretariat für Wirtschaft (Se­co). In der Schweiz sind vor allem Güter der Maschinenindustrie, der Chemie und Pharma-Industrie sowie der Soft- und Hardwareproduktion betroffen. Unter Dual Use fallen rund 70 Prozent der Schweizer Exporte – Ausfuhren im Wert von gegen einer Milliarde Franken jährlich. «Die Bedeutung ist riesig für unser Land», sagt Holzer.

Der Bund kontrolliert einerseits aktiv, setzt aber andererseits stark auf Eigenverantwortung. Firmen sind verpflichtet, selbst zu deklarieren, was eine Bewilligung braucht und was nicht. Fehlbares Verhalten sei kaum im Interesse der Unternehmen, sagt Holzer. «Wenn ein Produkt ungewollt in einem kriegerischen Zusammenhang auftaucht, schadet das der Reputation.»

In neuen Bereichen wie der Neurotechnologie und der  künst­lichen Intelligenz sei jedoch auch in in­ternationalen Gremien «vieles erst angedacht und noch nicht durchdacht». Man sei immer wieder im Clinch: Was ist nötig, und wann wird zu viel verhindert? Wie kann die Kontrolle funktionieren? Die staatlichen Stellen seien mit allen Beteiligten im Gespräch: Entwicklern, Produzenten, Forschenden. «Ins­gesamt ist es ganz wichtig zu sensibilisieren», sagt Holzer.

Es herrscht Gesprächbedarf

Zentral ist offensichtlich bei allen Beteiligten: Es herrscht Gesprächsbedarf. Mögliche Konsequenzen müss­ten «proaktiv» angegangen wer­den, verlangt Ienca. «Gerade bei kom­plexen Technologien, die sich besonders unvorhersehbar entwickeln, müssen wir ethische Fragen öffentlich und demokratisch diskutieren.» Anna Deplazes formuliert es so: «Die Forschenden müssen sich darin üben zu antizipieren, und zwar nicht nur positive Konsequenzen.» Diskutieren, reflektieren und Fallbeispiele erörtern könne das ethische Verhalten fördern, ist sie überzeugt.