339
Passwort vergessen

Ethik-Kommentar

Grenzen der digitalen Assistenz

Grenzen der digitalen Assistenz

  • f&w
  • Politik
  • 05.04.2017

f&w

Ausgabe 4/2017

Seite 328

Robotik-Systeme sind in der Lage, in Medizin und Pflege Menschen partiell zu ersetzen und von Aufgaben zu entlasten. Dabei besteht das Risiko, dass eingesetzte Maschinen in die Autonomie der Behandelnden eingreifen. Eine rein funktionelle Ausrichtung darf daher nicht die emotionale Rationalität verdrängen.

Längst haben wir uns daran gewöhnt, in unserem Alltag digitale Apps zu nutzen, die das tägliche Leben organisieren und erleichtern sollen. Zahlreiche Assistenzsysteme, etwa in modernen Fahrzeugen, nehmen uns Arbeit ab, indem sie für uns handeln und unsere Sinnesleistungen erweitern. Immer offensichtlicher erobert diese digitale Assistenz zunehmend auch den Bereich von Medizin und Pflege. Beim Einsatz von Assistenzsystemen in der Gesundheitsbranche geht es nicht nur um die Frage, ob das Zwischenmenschliche dieser Sphäre verloren geht, wie beim Fahrkartenautomaten, der den Menschen am Schalter ersetzt. Darüber hinaus geht es um den gesamten Kontext, wie Robotik und autonome Systeme mit lernenden Algorithmen unsere Lebenswelt und uns selbst verändern, indem sie als Quasi-Personen in unser Handeln eingreifen und für uns Entscheidungen treffen.

Sicherlich ist es in vielfacher Hinsicht praktisch, wenn überall Automaten herumstehen, die uns etwa mit Fahrscheinen versorgen oder uns durch Barrieren führen und damit Abläufe vereinfachen und beschleunigen – am besten noch mit Smartphone vernetzt und ganz papierlos. Gleichzeitig stehen wir aber auch oft hilflos vor dem System, weil es eben nicht auf Nachfragen so reagiert wie ein Mensch – oder wie wir es idealerweise von einem Menschen erwarten.

Doch auch dann, wenn keines der existierenden Systeme den Turing-Test bestehen würde und wir immer sicher sagen können, „dies ist kein Mensch“, und auch dann, wenn ganz positiv Fahrzeugassistenzsysteme hilfreich eingreifen und damit vielleicht riskante Überholmanöver mit schweren Unfallfolgen verhindern, wird uns bei dem Gedanken der kompletten Übernahme des Fahrzeugsteuerns vielleicht auch ein wenig mulmig. Wir fühlen mitunter eine Ohnmacht darüber, wie die Maschinenwelt in die Menschenwelt eingreift und wie das System nicht nur selbst autonome Züge annimmt, sondern wie es uns auch eigene Autonomie wegnimmt.

Moralischer Umgang mit Algorithmen

Maschinen wird niemand Gefühle oder freien Willen zubilligen wollen, auch keine reflektierte Moral oder Ethik. Aber wir könnten sie vielleicht in Zukunft so programmieren, dass es so aussieht, als ob sie Empathie zeigten, einem freien Willen gehorchten oder sich gar nach bestimmten Moralvorstellungen richteten. Eine solche Maschine bestünde den Turing-Test schon eher. Aber sie sind gemacht und hergestellt nach den Maßgaben anderer – also heteronom.

Für „autonome“ Autos hat das Massachusetts Institute of Technology (MIT, Institut für Technologie Massachusetts) in Boston die Frage entwickelt, wie ein Algorithmus zu programmieren sei, um ethisch vertretbar zu entscheiden, auf welche Weise ein autonom steuerndes Fahrzeug bei Bremskraftverlust ausweichen müsste, um wenige Menschen zu gefährden, sowie welche Priorität dem Insassenschutz gegenüber dem Passantenschutz gewährt werden soll. Oder ob gar unterschieden werden müsste, welcher Typ von Mensch gefährdet werden darf und welcher nicht (etwa Kinder versus Erwachsene). Ob nun aber ein Roboter oder eine Drohne Tieren genauso ausweicht wie Menschen, ist eine Frage der Sensitivität von Sensoren und der Programmierung nach entsprechenden Entscheidungskalkülen. Sie werden von jener Moral bestimmt, von der die Programmierenden überzeugt sind. Es bedarf dann keiner Maschinenmoral, sondern einer Moral der Hersteller und Programmierer im Umgang mit Algorithmen.

Es ist daher eine Ethik zum Umgang mit Algorithmen erforderlich, die deutlich macht, wer hier der eigentliche verantwortliche Akteur ist. Gerade die Haftungsfrage kann nicht auf eine Maschine abgewälzt werden. Diese Fragen lassen sich im Wesentlichen noch in Analogie zur analogen Welt lösen. Die Gefahr an dieser Stelle besteht jedoch darin, dass die Welt des Digitalen und das Internet der Dinge ein Eigenleben entwickeln, in dem niemand mehr eine Verantwortung trägt. Zu viel unterschiedlich Programmiertes interagiert autark und wird im Agieren undurchschaubar.

Mechanische Handgriffe, wie das Anreichen von Medikamenten oder das Durchführen von Operationen, könnten von Überwachungs- und Zulassungsinstitutionen hinsichtlich Operationalität und Qualität ähnlich überwacht werden wie konventionelle Maschinen. Und sie können wie Menschen geprüft werden, wie es der Fall wäre, wenn sie Autofahrer oder Studienarzt werden wollen. Die Haftung bei möglichen Fehlern ließe sich aber auch dann nicht auf eine Maschine übertragen. Sie liegt weiter bei Prüfern, Regulatoren, Programmierern, Anwendern oder Produzenten.

Zwischen Assistenz und Kontrollverlust

Maschinen können in vielen Ausführungen Menschen erheblich überlegen sein, in Millisekunden Entscheidungen treffen und Berechnungen durchführen, zu denen der Mensch in diesem Rahmen niemals in der Lage wäre. Richtig eingesetzt, bedeutet dies echte Assistenz. Wenngleich Maschinen keine Verantwortung übernehmen können, müssen wir moralisch vom Zusammenspiel zwischen Mensch und Maschine neu lernen. Die Sorge liegt ja einerseits insbesondere darin, dass nicht mehr der Mensch die Technologie überwacht, sondern sich die Menschen von Maschinen kontrolliert und gesteuert fühlen, sowie andererseits darin, dass Handlungsbereiche, die sehr stark von einem empathischen Miteinander unter Menschen geprägt sind, nun maschinell entwertet und anonymisiert, gleichzeitig aber auch von einem privaten in einen öffentlichen Raum befördert werden. Denn der Pflegeakt durch den Pflegeroboter ist genauso anonym und öffentlich wie jedes Smart-Home-System oder Surfen im Internet.

Weil alles miteinander digital inter-agiert, ist es prinzipiell auch von außen einsehbar und manipulierbar. Diese Form der Assistenz kann zur öffent­lichen Kontrolle oder zumindest Beobachtung führen – gewollt oder ungewollt. Daher wird die Vision, ob Robotik im Wesentlichen Assistenz und Hilfe bedeutet und uns in diesem Sinne eine bessere Welt schaffen kann oder eher mit einem Autonomie- und Kontrollverlust einhergeht, entscheidend davon abhängen, wer hierüber die Definitionsmacht hat und damit über die ethischen Prinzipien entscheidet, die im Herstellungs- und Anwendungsprozess leitend sind.

Schon bei der Nutzung von Apps auf Smartphones und Tablets muss sich der User persönlich offenbaren, wenn er nicht von der Nutzung ausgeschlossen werden will. Dies zeigt sehr deutlich, dass es um den Schutz der Privatsphäre im Netz der Apps und dem Netz der Dinge nicht immer gut bestellt ist. Die offensichtliche globale Überforderung, im Umgang mit halbautonomen Systemen gelungene Funktionalität, gesicherte Privatsphäre und gerechtfertigte Kontrollmechanismen miteinander zu verbinden, sollte zu einem Umdenken führen. Ethik und Recht denken immer noch in analogen Strukturen in einer digitalisierten Welt.

Assistenz in der Pflege durch Roboter, etwa durch intelligente Pflegewagen, aber auch durch Roboter-assistierte Chirurgiesysteme, kann sicherlich im ausgereiften Zustand erheblich unterstützend wirken. Solche Systeme können vor allem auch dazu beitragen, dass sich die behandelnden Menschen zentraleren Aufgaben widmen. Maschinen ersetzen den Menschen jedoch nicht prinzipiell, sondern nur partiell. Gerade hier ist die Medizinethik herausgefordert, indem sie darauf achtet, dass mit dem Menschen nicht auch kommunikative und emotionale Rationalität abgeschafft und Diagnose, Pflege und Therapie nicht auf ihre technischen Anteile reduziert werden. Eine Ethik medizinischer Assistenzsysteme ist eine Ethik, die gleichermaßen auf angemessene Funktionalität, Kontrolle, Haftung und Kommunikation beim Einsatz der Systeme achtet, um die Behandelten und die Behandelnden zu unterstützen und zu schützen.

Autor

Unsere Zeitschriften

f&w

Pflege und Krankenhausrecht

Klinik-Newsletter

Abonnieren Sie unseren kostenlosen täglichen Klinik-Newsletter und erhalten Sie alle News bequem per E-Mail.

* Durch Angabe meiner E-Mail-Adresse und Anklicken des Buttons „Anmelden“ erkläre ich mich damit einverstanden, dass der Bibliomed-Verlag mir regelmäßig News aus der Gesundheitswirtschaft zusendet. Dieser Newsletter kann werbliche Informationen beinhalten. Die E-Mail-Adressen werden nicht an Dritte weitergegeben. Meine Einwilligung kann ich jederzeit per Mail an info@bibliomed.de gegenüber dem Bibliomed-Verlag widerrufen. 

Weitere Artikel dieser Ausgabe



Kontakt zum Kundenservice

Rufen Sie an: 0 56 61 / 73 44-0
Mo - Fr 08:00 bis 17:00 Uhr

Senden Sie uns eine E-Mail:
info@bibliomedmanager.de

Häufige Fragen und Antworten finden Sie im Hilfe-Bereich