Forschung und Digitalisierung stehen auf dem diesjährigen DGPPN Kongress im Zentrum der Debatten. Bildgebungsverfahren, Big Data, Künstliche Intelligenz und ihr Einsatz in der psychiatrischen und psychotherapeutischen Praxis sind die Themen, die kontrovers diskutiert werden und erhebliche – besonders auch ethische – Fragen aufwerfen.
Es klingelt an der Tür. Ich öffne und blicke zwei freundlichen, aber mir unbekannten Personen ins Gesicht. "Guten Tag Frau Zakirova. Wir kommen im Auftrag der psychiatrischen Observationsstelle für Krisenprävention und psychische Gesundheit und möchten bei Ihnen gern einen Wellness Check durchführen. Uns liegen Datenanalysen vor, nach denen es bei Ihnen in den nächsten Tagen mit sehr hoher Wahrscheinlichkeit zu einer Psychose kommen wird. Ihrer Patientenakte entnehmen wir, dass Sie bereits früher wegen depressiver Episoden psychiatrische Hilfe in Anspruch genommen haben, daher fallen Sie in die von uns zu observierende Zielgruppe. Wir möchten Sie bitten, mit uns zur Abklärung in die Klinik zu fahren."
So oder ähnlich könnte sie aussehen, die schon fast gegenwärtige Zukunft der KI-gestützten Psychiatrie. Möglich geworden ist das, was unvorstellbar erscheint, schon lange. Der Realisierung all dieser Möglichkeiten stehen bislang (zumindest in Deutschland noch) Gesetze im Weg. Dennoch fällt bei der anlässlich des DGPPN Kongresses stattfindenden Pressekonferenz zum Thema „Forschung und digitale Welt in der Psychiatrie: Mögliches und Unmögliches – wo führt der Weg hin?“ auf, dass auch die Expertinnen und Experten des Fachs auf dem Gebiet des Datenmanagements verunsichert sind. Nicht nur besteht Unsicherheit darüber, was in Zukunft möglich sein wird, man ist sich auch uneinig darüber, was man sich wünscht und wovor man sich fürchtet.
Fest steht, dass mit der Digitalisierung eine Entwicklung eingesetzt hat, die in rasantem Tempo immer mehr Bereiche erobert, die zuvor als spezifisch menschlich galten. Dies gilt in besonderem Maße für die Künstliche Intelligenz (KI), die einen epochalen Wendepunkt in allen Bereichen des Lebens beschreibt und auch für die Medizin immer mehr an Bedeutung gewinnt. Prof. Dr. Andreas Meyer-Lindenberg, Vorstand der DGPPN und Direktor des Zentralinstituts für Seelische Gesundheit aus Mannheim fokussiert vor allem auf die Nutzbarmachung von KI mit Hilfe von Deep Learning – dem menschlichen Gehirn nachempfundenen, künstlichen neuronalen Netzen.
Deep Learning nutzt selbstadaptive Algorithmen, um Datenströme zu handlungsleitenden Systemen zusammenzuführen. So kann mit ihnen die Diagnostik in vielen Bereichen verbessert werden. Ein Beispiel hierfür ist die maschinelle Übersetzung: Im immer mehr die gesprochene Sprache ablösenden Modus des Textens ergibt sich durch Übersetzungsprogramme ein umfänglicher Zugriff auf den Sprachkorpus der Patienten. Selbst, wenn eine Verständigung auf Grund von Sprachbarrieren nicht möglich ist, erlaubt das Zusammenfügen einzelner Textkomponenten das Ausfiltern neuer Marker, die für die Diagnose psychischer Erkrankungen relevant sein können.
Solche komplexen Systeme haben sich auch in anderen Bereichen der Medizin, allen voran in der Radiologie, als dem Menschen gegenüber uneinholbar voraus erwiesen. Sie eröffnen Möglichkeiten der Diagnose und Behandlung in einem so frühen Stadium, wie es ohne sie unmöglich wäre. Auch in der Psychiatrie als "sprechender Medizin" bietet die KI eine Fülle von Optionen, besonders im Bereich der Biomarker, um bei aller Heterogenität der Krankheitssymptome Untergruppen zu erkennen, die dann spezifisch behandelt werden können. Im Bereich der digitalen Psychotherapie können mit Hilfe entsprechender Programme und Sensorik Open-Loop-Systeme gebildet werden, um Interventionen zu triggern. Therapeuten und Patienten verständigen sich dabei auf bestimmte Indikationen und KI interveniert, wenn es zu entsprechenden Situationen kommt. Bewegungsmuster können erkannt und ausgewertet werden, beispielsweise bei dementen Patienten mit motorischen Störungen. Die Anwendungsfelder von KI, die für die Psychiatrie und Psychotherapie Potenzial für die Optimierung von diagnostischer und therapeutischer Praxis liefern, sind vielfältig und komplex.
Weniger optimistisch beschreibt Prof. Dr. Gerhard Gründer, Leiter Molekulares Neuroimaging am Zentralinstitut für Seelische Gesundheit in Mannheim und Mitarbeiter von Meyer-Lindenberg, den Vorgang des Datensammelns als "digitale Phänotypisierung". Psychisches Erleben mittels objektiver Daten zu erfassen, sei bislang nicht erfolgreich gewesen, was man daran erkenne, dass trotz immenser Datenmengen keine eindeutigen Biomarker für psychische Erkrankungen identifizierbar seien. Prädiktive und prognostische Indikatoren bringen außerdem die Frage der Grenzziehung mit sich: Ab welcher Wahrscheinlichkeit wird interveniert? Wer bestimmt diese Notwendigkeit, wer verantwortet sie? Könnte es dazu kommen, dass nicht der Mensch, der (noch) gar nicht leidet, behandelt wird, sondern sein Biomarkerprofil? Hier hört sich die mit der Künstlichen Intelligenz einhergehende Vision eher nach einem dystopischen Szenario an.
Bin ich als Patient froh, dass meine voraussichtlich in den nächsten Tagen einsetzende Psychose vom Algorithmus erkannt wurde und ein Hilfesystem in Gang setzt, das mich durch diese Phase begleitet und mich bestmöglich behandelt? Oder fühle ich mich von einer Ordnungsbehörde in eine Situation gezwungen, die nicht meiner tatsächlich empfundenen Verfassung entspricht? Die ethischen Implikationen in diesem Setting sind komplex. Ging der Intervention meine Zustimmung zur Datensammlung und -analyse voraus? Unter welchen Umständen habe ich eingewilligt? Wer verwaltet meine Daten, wem sind sie zugänglich, woher werden sie bezogen? Wer besitzt die Datenhoheit, welche monetären Interessen sind damit verbunden, welche Netzwerke und Kooperationen erstellen mein Biomarkerprofil, das dann einer Analyse und Bewertung zugeführt wird und schließlich meine Person beschreibt?
Schließlich bestätigte ein US-amerikanischer Einzelhändler bereits vor Jahren, dass seine Algorithmen die Schwangerschaft einer Kundin anhand ihres Konsumverhaltens schon erkennen können, bevor diese selbst von davon weiß. So erfuhren schon Frauen von ihrer Schwangerschaft durch die für sie bereitgestellten Konsumangebote zum Thema – der Algorithmus hatte bereits offenbart, was ihnen selbst noch nicht klar war.
Gründer beruft sich auf den Humanismus, der im gegenwärtigen Diskurs zu kurz komme und auf das Prinzip der Emergenz, nach dem sich aus dem Zusammenspiel der Elemente eines Systems ganz neue, unvorhersehbare Eigenschaften und Strukturen herausbilden können.
Technologieaffinität und Technologiepessimismus scheinen die beiden Pole zu sein, zwischen denen der psychiatrische Diskurs mäandert. Eine Ethik der Psychiatrie wird also nicht umhinkommen, sich dieser Ambivalenz zu stellen. Die Diskussion um Mögliches und Unmögliches und die Frage „Wo führt der Weg hin?“ muss vor allem unter dem Aspekt der Navigation geführt werden. Die bereits praktikablen und praktizierten Fortschritte der Technologie zeigen, dass es nicht darum geht, ob sie zum Einsatz kommen, sondern wie. Hierzu wird es notwendig sein, selbstbewusste, handlungsfähige und verantwortungsvolle (Mensch/Maschine) Allianzen zu knüpfen, die weder einer Technoideologie Vorschub leisten noch sich auf einen überholten Humanismus berufen, sondern die sich in ihren jeweiligen Stärken und Schwächen unterstützen und von Synergieeffekten profitieren.
Quellen:
DGPPN Kongress, PK „Forschung und Digitale Welt in der Psychiatrie: Mögliches und Unmögliches – wo führt der Weg hin?“, 29.11. 2018, Berlin
https://www.handelsblatt.com/technik/forschung-innovation/kuenstliche-intelligenz-die-macht-der-algorithmen/22913114.html, zuletzt 30.11.2018