Forscher fordern Regeln für Roboter-Therapeuten

Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien an der Technischen Universität München. (Foto: Andreas Heddergott / TUM)

Künstliche Intelligenz (KI) wird in der Psychotherapie immer häufiger eingesetzt, oft in Form von „verkörperter KI“. Forscher der Technischen Universität München (TUM) haben die Arbeit der Roboter-Therapeuten nun erstmals unter die Lupe genommen. Fazit: Wichtige ethische Fragen zu dieser Technologie bleiben unbeantwortet. Deshalb müssen Regierungen, Fachverbände und Forschung dringend handeln.

Roboter-Puppen, mit denen autistische Kinder lernen, Menschen besser zu verstehen; computergenerierte Avatare, die beim Umgang mit Halluzinationen helfen oder virtuelle Chats, die Unterstützung bei Depressionen bieten: Bereits heute gibt es viele Ansätze, die Gesundheit von Menschen mit sogenannter verkörperter Künstlicher Intelligenz zu fördern. 

Erste Einsätze von KI in der Psychotherapie gab es bereits in den 1960er Jahren. Damals sollten Chatbots die Illusion eines therapeutischen Gesprächs erzeugen, was jedoch noch nicht überzeugend gelang. Heute ist das anders. Moderne Algorithmen und gestiegene Rechnerkapazitäten bieten viele Möglichkeiten. „Die Algorithmen hinter diesen Anwendungen sind mit riesigen Datenmengen trainiert worden und können echte therapeutische Aussagen treffen“, sagt Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien an der TUM. Zusammen mit Dr. Amelia Fiske und Peter Henningsen, Professor für Psychosomatische Medizin und Psychotherapie, hat die Wissenschaftlerin einen systematischen Überblick über Anwendungen der verkörperten KI für die psychische Gesundheit erstellt sowie und Chancen und Herausforderungen beleuchtet.

Roboter-Therapeuten kein Ersatz

Die neuen Anwendungen haben nach Einschätzung der Forscher ein enormes Potenzial. Mehr Menschen erhalten Zugang zu einer Behandlung, weil sie nicht an bestimmte Zeiten und Orte gebunden sind. Zudem ist die Interaktion mit der künstlichen Intelligenz für einige Betroffene leichter als mit einem menschlichen Gegenüber. Die Wissenschaftler sehen jedoch auch Risiken. „Verkörperte KI kann und darf kein billigerer Ersatz für eine Behandlung durch reale Ärztinnen und Ärzte sein“, warnt Amelia Fiske.

„Obwohl verkörperte KI schon in der Klinik angekommen ist, gibt es bisher kaum Empfehlungen von medizinischen Fachgesellschaften zum Umgang mit diesem Thema“, ergänzt Peter Henningsen, der Dekan der TUM-Medizinfakultät ist. Das wäre jedoch dringend notwendig, um die Vorteile dieser Technologien zu nutzen und gleichzeitig Nachteile zu vermeiden und ‚Wildwuchs‘ einzudämmen. Henningsen empfiehlt, das Thema bereits im Medizinstudium zu behandeln. 

Ethische Regeln für KI fehlen

Zurzeit werden vermehrt Leitlinien für KI erstellt. Zu ihnen zählen beispielsweise die derzeit von der EU entwickelten Ethics Guidelines for Trustworthy AI. Darüber hinaus ist es nach Einschätzung der Experten Buyx, Fiske und Henningsen erforderlich, dass auch fachspezifische Regeln aufgestellt werden.

 „Therapeutische KI-Anwendungen sind Medizinprodukte, für die wir entsprechende Zulassungsverfahren und ethische Handlungsvorgaben brauchen”, sagt Alena Buyx. „Wenn die Programme beispielsweise erkennen können, ob Patienten Suizidgedanken haben, dann müssen sie, genau wie Therapeutinnen und Therapeuten, im Ernstfall klare Warn-Protokolle befolgen.” Außerdem müsse verkörperte KI intensiv auf soziale Effekte hin erforscht werden. „Wir haben kaum Informationen dazu, wie sich der Kontakt mit therapeutischer KI auf uns Menschen auswirkt“, so die Forscherin. Unter Umständen lerne beispielsweise ein Kind mit einer Störung aus dem Autismus-Spektrum durch den Kontakt mit einem Roboter nur, wie man besser mit Robotern umgehe – aber nicht mit Menschen.