Wie die Kommunikation mit einer interaktiven Puppe in der Krankenpflege helfen kann, wird derzeit am Quality and Usability Lab der TU Berlin erforscht.
71 Prozent aller zu pflegenden Personen in Deutschland werden zu Hause betreut – von einem Pflegedienst oder von pflegenden Angehörigen. Eine interaktive Puppe soll die Helfer jetzt unterstützen. Diese Puppe soll immer dann zur Verfügung stehen, wenn gerade niemand beim Pflegebedürftigen ist. Sie kann Audio-, Video- und andere Signale sowohl von der zu pflegenden Person als auch von den Pflegenden aufnehmen, analysieren und weiterleiten.
Wie eine solche Puppe genau ausgestattet sein muss, erforscht nun eine Kooperation von acht Partnern aus Wissenschaft, Wirtschaft und dem Gesundheitswesen im Rahmen eines vom Bundesforschungsministerium mit insgesamt 1,65 Millionen Euro geförderten Projekts. Einer der wissenschaftlichen Partner des Projektes ist das Quality and Usability Lab von Prof. Dr. Sebastian Möller der TU Berlin. Die Wissenschaftler kümmern sich um das Hightech-Innenleben der Puppe. „Unsere Expertise konzentriert sich auf die emotionale Spracherkennung und den Einsatz von Crowdee“, sagt Dr. Tim Polzehl vom Quality and Usability Lab. Crowdee ist eine mobile App, die in Echtzeit Aufgaben (Mikrojobs) an einen registrierten Personenkreis (Crowdees) verteilen kann.
Ein Beispiel zeigt, wie dieser Einsatz in der Krankenpflege aussehen könnte: Ein Patient ist allein zu Haus und die Sensoren haben ungewöhnlich lange keine Signale empfangen. Daraufhin spricht die Puppe den Patienten an. Die Antwort wird von einer zentralen Steuerung analysiert. So klingt zum Beispiel die Tonhöhe eines verängstigten Patienten anders als normalerweise. „Für diese Spracherkennung haben wir spezielle Algorithmen entwickelt, die Rückschlüsse auf den Zustand des Patienten zulassen, ob vielleicht ein Notfall vorliegt“, sagt Dr. Tim Polzehl. Diese Informationen werden je nach Situation dem Pflegepersonal oder den Angehörigen weitergeleitet. Sie entscheiden dann über etwaige Maßnahmen sollen. „Langfristig könnte man unter bestimmten Voraussetzungen auch darüber nachdenken, dass die Steuerung direkt den Notarzt informiert“, so Polzehl.
Herausforderung emotionale Spracherkennung
Während die digitale Spracherkennung sehr weit entwickelt ist, bereitet die emotionale Spracherkennung oftmals noch manche Probleme. „Wir wissen aber, dass ein Mensch in vielen Situationen oft sehr wohl entscheiden könnte, wie ängstlich zum Beispiel der Sprecher war. Deshalb setzen wir hier das von uns entwickelte Crowdee-System ein. In unserem Beispiel könnten die Crowdees Menschen sein, die Erfahrung in der Sprachanalyse haben.“ Die Personen erhalten eine anonymisierte Audio-Datei des Patienten und können sofort entscheiden, ob ein Notfall vorliegt oder nicht.
Ein zweiter Forschungsschwerpunkt der Wissenschaftler in diesem Projekt liegt in der Kommunikation mit der pflegenden Person. „Sie kommen zu Ihrem dementen Vater in die Wohnung und wollen wissen, ob der heute schon aufgestanden ist. Diese Frage richten Sie an die Puppe, die sie an die registrierten Crowdees weiterleitet, die dann zum Beispiel folgende Frage bekommen: War Herr X heute schon auf dem Balkon oder haben Sie seine Schritte gehört? Über das Crowdee-System können die Verteilung und die Antwort der Frage in Sekundenschnelle erfolgen.“ Die Forscher der TU Berlin haben es sich zum Ziel gesetzt, die Puppe so zu programmieren, dass sie „entscheiden“ kann, an wen sie eine Frage am besten stellt. Das kann dann zum Beispiel ein Nachbar sein oder der behandelnde Arzt. Das ist aber noch Zukunftsmusik, wie Polzehl weiß. Zunächst einmal wollen die Forscher zusammen mit ihren Partnern ermitteln, welche Daten überhaupt nützlich sind und welche Sensoren für ihre Erhebung erforderlich sind. Darüber hinaus geht es auch darum festzulegen, welche Zustände sich anhand der Daten sicher erkennen lassen und welche Datenschutz- und Persönlichkeitsrechte davon betroffen sind.