top of page

Wichtige Message von Dr. med. A.I.: „Lassen Sie die Finger von dieser Operation“

  • Autorenbild: Bülent Erdogan
    Bülent Erdogan
  • 13. Okt. 2019
  • 7 Min. Lesezeit

Aktualisiert: 29. Okt. 2019

Neulich bin ich kläglich gescheitert: Ich wollte mir eine Development Environment installieren, um meine ersten Schritte mit dem Programmcode Python zu gehen. Aber welches Programm ich auch auf mein MacBook Air herunterlud, irgend etwas funktionierte nicht. Jetzt muss ich wohl ganz analog zu einem Freund fahren und ihn bitten, mir eine entsprechende Lösung auf meinem Laptop zu installieren.


Ein grüner Baumpython
Ein grüner Baumpython. Der Programmcode Python hat seinen Namen aber von der englischen Komödiantentruppe Monty Python. Wie sang es sich einst so schön: Always look on the bright side of life.

Meinem Glauben an die Entwicklung von Intelligenten Systemen, auch und gerade mit Blick auf das Gesundheitswesen, tut das natürlich keinen Abbruch, denn versagt hat mal wieder ganz klar: der Mensch. Als Optimist gehöre ich jedenfalls zu den Zeitgenossen, die sich eine „starke Künstliche Intelligenz“ wünschen, die eines fernen Tages wirklich menschliche kognitive Fähigkeiten und ein eigenes Bewusstsein erlangt. Wenn schon, denn schon, siehe auch meinen Post, vor allem die Punkte 2 bis 7: Wo, bitte, geht es zur nächsten Disruption?


Die Geburt einer solchen starken KI würde natürlich eine Reihe fundamentaler Fragen aufwerfen: Denn wer könnte schon sicher sein, dass eine solche Intelligenz nicht zum Ergebnis kommt, dass das menschliche Gegenüber im Sinne der öffentlichen Gesundheit bitte auszuschalten ist? Und was, wenn es dazu gar die Mittel in petto hätte? Es muss ja nicht gleich (Massen-)Mord sein, Kryokonservierung käme doch auch in Frage. Fragen Sie mal bei Moravec nach.


In 140 Jahren Elektrifizierung hat die Welt schon vieles gesehen, aber noch immer ist eine starke KI ein Fall für das Science Fiction-Genre. Bisher treiben Menschen ihr Unwesen. Für das Erste würde mir reichen, dass eine menschenartige KI, in dem Moment, in welchem sie das Licht der Welt erblickt, nicht monopolisiert wird von kommerziellen und/oder gouvernementalen Interessen, die Ziele verfolgen könnten, die dem Interesse des Individuums nach Wohlbefinden, Gesundheit und deren -rückgewinnung oder nach einem möglichst langen, würdevollen und lebenswerten Überleben nach infauster Prognose zuwiderlaufen. Usurpation wäre das eine Menetekel, schlimmer und wahrscheinlicher scheint mir, dass eine solche KI sogar von staatlichen und/oder kommerziellen Entitäten aufgesetzt werden könnte und die Menschen über die wahren Hintergründe und Interessen im Unklaren gelassen würden. Man braucht nicht viel Phantasie, um das weiterzudenken: Es tritt ein Gewöhnungseffekt ein und die Menschen wollen ihr Dasein nicht mehr ohne diese Technologie fristen. Wie viele Leute kennen Sie, die aus Datenschutzgründen auf ein Nokia 3310 downgegradet haben?


Dass Intelligente Systeme zur Überwachung und Lenkung von Menschen eingesetzt werden, ist heute schon zu beobachten: plakative, den „Westen“ entlastende Beispiele sind China und Indien. Ebenso erleben wir bereits heute, dass große Anbieter von Social-Media-Plattformen aus den USA trotz einer Reihe von eklatanten Verstößen gegen den Datenschutz von staatlichen Stellen nicht mit solchen Sanktionen belegt werden, wie man sie als rechtschaffener Bürger eigentlich erwarten würde. Aus meiner Perspektive ist ein Grund naheliegend: Social Media-Anwendungen (in Verbindung mit Smartphone und Co.) ermöglichen interessierten Stellen weltweit den Zugang zu jedem Nutzer und insbesondere zu dessen Mindset.


Als Junge habe ich mir vorgestellt, dass der Heizungsableser, der jährlich vorbeischaute, gegen Entgelt (oder als ganz troier Volksgenosse nur für die reine Seele) Bericht erstattete gegenüber den Behörden, wenn er etwas Auffälligem wie einer Reichskriegsflagge oder einer Lenin-Statue oder einem überzähligen Ausländer und einer damit plötzlich nicht mehr ausreichend großen Bude gewahr wurde. Bei Eigenheimen würde der Schornsteinfeger diese Aufgabe übernehmen. Wie auch immer: Was früher aufwendig geheimdienstlich an Information beschafft werden musste, das lässt sich heute viel einfacher abgreifen (ich stelle mir jedenfalls die API-Schnittstelle „For Governments“ vor, und eine für die „Axis Of Evil“).


Doch zurück zur Ausgangsfrage:

  1. Auf welche medizinische Information sollten wir uns als Bürger und Patienten verlassen können?

  2. Wie und wo sollten diese Informationen gesammelt, verknüpft, verwaltet werden und den Menschen zur Verfügung gestellt werden?

  3. Und wie sollte dieser Common Trunk an Evidenz in unser Leben eingebunden werden?

Die ersten beiden Fragen möchte ich en bloc beantworten: Natürlich gibt es schon heute viele Instanzen und Institutionen, die über viele, viele Milliarden Datensätze verfügen, erwähnt seien beispielsweise das Cochrane-Netzwerk, die großen Journals wie The Lancet, Krankenkassen, Krankenhäuser, Abrechnungsstellen, öffentliche Gesundheitsdienste oder Pharmahersteller.


(Ergänzen Sie die Liste vor Ihrem geistigen Auge)


Inwiefern diese Daten (welcher Art auch immer) miteinander verknüpft sind und inwieweit sie ohne Missachtung relevanter Datenschutzaspekte miteinander in Beziehung gesetzt werden können, kann ich als einfacher Bürger gar nicht im Ansatz ermessen. Ich gehe aber davon aus, dass die einzelnen Institutionen über ihre Informationen wachen, weil sie wie eine harte Währung anzusehen sind. Auch ist davon auszugehen, die Pharmabranche sei als beredtes Beispiel genannt, dass einzelne Akteure nicht ihr gesamtes Wissen preisgeben. Oder dass Menschen (und mit ihnen Programme und Maschinen) Informationen nicht erkennen, falsch bewerten oder als unwichtig ansehen.


Doch sehen wir davon einmal ab. Lassen wir im Beispiel die Cochrane Initiative weltweit Daten zusammentragen und in eine mächtige Datenbank hineingeben. Cochrane gilt im Vergleich mit vielen anderen und mit allen Kautelen, die man generell beachten sollte, als durchaus vertrauenswürdige Instanz, die sich insbesondere durch den Einsatz von Meta-Analysen einen Namen gemacht hat.


Eine solcher Wächter (ich nenne ihn Sentinel) über das gesundheitliche Wissen der Menschheit müsste sich allerdings den höchsten Standards stellen, die es in Hinsicht auf die Zusammensetzung (Nationen; „Schwarz/Weiß/Gelb“; Mann/Frau/Divers; Alt/Jung; Reich/Arm; Arztorientiert vs. Arztkritisch; Schulmedizinisch orientiert vs. Alternativmedizinisch orientiert; „Heilung durch den Geist“ vs. „Geistheilung gibt es nicht“), ethisch und mit Blick auf die Transparenz von Entscheidungen oder Nicht-Entscheidungen gibt. Das ist ein schwieriges Unterfangen, wird doch allein in Deutschland jeden Tag eine Milliarde Euro im Gesundheitswesen umgesetzt. Wie oft lügen wir uns selbst, auch bei kleinen Dingen, in die Tasche? Und bei den großen Summen soll dann alles nur nach Wissen und Gewissen ablaufen?


Lassen Sie uns aber in diesen Sentinel vertrauen und den Gedanken weiter verfolgen. Aus den weltweit zufließenden Daten würde Cochrane mittels KI ein Set an belastbaren Informationen über eine ausreichend große Zahl an Erkrankungen und Syndromen entwickelt, auf dessen Grundlage eine Software Antworten und Vorschläge präsentieren würde, wie sie auch ein verständiger, unabhängiger Mediziner (muss das künftig immer ein Arzt sein?) nach eben jenem aktuellen Stand der Wissenschaft geben würde. Das kann bedeuten eine Intervention vorzuschlagen oder dies nicht zu tun. Immer würde das System dem Patienten die Antwort darauf geben, was er mit welcher Wahrscheinlichkeit oder mit welcher Unsicherheit behaftet von einer Therapie oder einer Nicht-Therapie zu erwarten hat und auf welcher Analyse oder Kombination von Bewertung diese Information beruht. Diese Informationen müssten eineindeutig sein. Das kann auch bedeuten, dass die Software in verständlicher Sprache mitteilt: „Es gibt keine Evidenz, lieber Patient, Sie könnten getrost auch eine Münze werfen! Wenn Sie aber zum Typ Patient gehören, der unbedingt einen Eingriff an sich vornehmen lassen möchte, empfehlen wir Ihnen (XYZ).“


Damit komme ich zur dritten Frage: Ich gehe aus, dass es eines Tages ein Programm/eine technologische Infrastruktur geben könnte, das/die nach Treu und Glauben im besten Sinne neutral auf Fragen freier Menschen nach Erkrankungen und Syndromen antwortet und jeden vorstellbaren Bias ausschaltet. Doch wie kommt der Bürger damit in Berührung? Mittels Spahn-App? Oder der Service-Welt des GKV-Spitzenverbandes? Vielleicht doch lieber per Smartphone-Anwendung des Verbandes forschender Arzneimittelhersteller? Oder informiert ihn die der Dachverband der Deutschen Uniklinika? Oder die Bundesärztekammer?


Bei den ersten drei Beispielen ist die theoretische Gefahr eines Diebstahls der eigenen Gesundheit wahrscheinlich leicht erkennbar: sowohl der Staat als auch die Kostenträger könnten ein aus eigener Kraft nicht zu überwindendes Sonderinteresse haben, die Ausgaben für Gesundheit, insbesondere wenn sie durch Versichertenbeiträge aufzubringen sind, zu deckeln (die 40-Prozent-Marke bei den Sozialbeiträgen ist bekanntlich eine Monstranz). Und würden Sie es einem Unternehmen verübeln, für einen möglichst kontinuierlichen Umsatz zu sorgen, garniert mit aktionsärsfreundlichen Renditeerwartungen? Volkswagen baut Medienberichten zufolge bis heute Diesel-Autos, die den straßenzulassungsrechtlichen Normen nicht genügen. Warum? Weil VW nicht auf 40 Prozent seines Geschäfts verzichten will oder kann. Doch schon bei den Uniklinika müsste man zweimal hinschauen, denn wer hat schon etwas gegen Spitzenmedizin? Von den erwartbaren Klagen wegen der Beschränkung freier unternehmerischer Tätigkeit mal ganz abgesehen.


Ich meine daher, jeder sollte die App anbieten können, die er für die Beste hält, um mit dem an die Menschen heranzutreten, was er für sein Core Asset hält, also sein Angebot für eine bessere Welt. Die medizinische Basis aber, die sollte immer der Sentinel sein. Jede App, sei sie von der Bundesregierung, den Krankenkassen, Kliniken, Pharmaherstellern oder der Ärzteschaft entwickelt, sollte in meinem konsiliarischen Ökosystem immer auf den medizinischen Background des Sentinels zurückgreifen müssen. Und hier kommt noch eine weitere Sicherung ins Spiel: Der Sentinel muss die Macht haben, seine Ansicht prominent kundzutun. Wenn zum Beispiel die App eines privaten Konzerns eine Operation oder eine andere Prozedur vorschlägt, um Erkrankung X oder Syndrom Y zu kurieren, so gibt der Sentinel auf dem Smartphone-Bildschirm in geeigneter Weise seine eigene Einschätzung ab, ob vorgeschlagene Intervention nach dem derzeitigen Stand der Wissenschaft sinnvoll, sinnlos oder gar schädlich ist. (Ist sie schädlich, gibt es die Unterlassungserklärung an den Konzern gleich frei Haus. War nur ein Spaß.) Denn wie heißt es so schön: Primum nihil nocere, secundum cavere, tertium sanare.


Man könnte nun natürlich einwenden, warum der Sentinel denn integraler Bestandteil der Apps von Kliniken oder Krankenkassen sein sollte? Warum könnte er nicht einfach ein eigenständiges Programm sein, welches der Patient dann mit den Informationen aus der anderen App füttert? Dafür spräche ordnungspolitisch wahrscheinlich, dass man „Markt“-Teilnehmer nicht zwingen sollte, Dinge zu integrieren, die ihren Zielen nicht dienen, aber Ressourcen entziehen und Umsatzchancen beschneiden. Damit ist aber der übergeordnete ethische Punkt schon genannt. Niemand sollte Gesundheitsleistungen anbieten, die der Sache und dem Patienten mehr schaden denn nützen. Ich halte es zudem auch nicht für abwegig, dass Anbieter ihre Therapievorschläge derart "verpacken", dass eine externe Sentinel-App mit der Information gar nichts anfangen kann, die der User von der anderen App überleitet - eben weil die KI noch nicht „stark“ genug ist, den Verpackungskünstlern auf die Schliche zu kommen.


Ein Grundsatz muss über all dem Vorgenannten stehen: Die Anwendung einer App mit Sentinel im Hintergrund muss immer freiwillig sein, sie darf nicht mit Nachteilen verknüpft sein, auch dürfen mit dem Sentinel keine Boni verbunden werden. Ebenso freiwillig muss die Weitergabe eigener, anonymisierter Gesundheitsdaten zum Nutzen der Menschheit sein, zum Beispiel in Registern. Hierzu haben sich auch Bundesgesundheitsminister Jens Spahn und EU-Kommissionschefin Ursula von der Leyen kürzlich ihre Gedanken gemacht.


Entsprechend prekär ist, was das British Medical Journal mit Blick auf die Chat-App Ada Health Anfang dieses Jahres investigiert hat, siehe auch einen Bericht auf Heise.


コメント


 © Bülent Erdogan

51588 Elsenroth

bottom of page