Ein von deutschen Wissenschaftlern programmierter Algorithmus kann harmlose Muttermale und schwarzen Hautkrebs präziser unterscheiden als die erfahrenen Hautärzte von zwölf Universitätskliniken.
Wissenschaftler des Deutschen Krebsforschungszentrums (DKFZ), der Universitäts-Hautklinik und des Nationalen Centrums für Tumorerkrankungen (NCT) Heidelberg haben einen Algorithmus entwickelt, der verdächtige Hautveränderungen digital beurteilen kann. Das gelingt unter dem Strich präziser als bei Medizinern.
Für 100 Bilder von Hautauffälligkeiten, davon 20 gesichert schwarzer Hautkrebs (Melanom) und 80 gutartige Muttermale, mussten 157 Dermatologen von zwölf deutschen Universitäts-Hautkliniken (Berlin, Bonn, Erlangen, Essen, Hamburg, Heidelberg, Kiel, Magdeburg, Mannheim, München, Regensburg und Würzburg) das weitere Vorgehen bestimmen: entweder eine Biopsie durchführen oder dem Patienten von der Gewebeprobe abraten. Dieselben 100 Bilder wurden anschließend von einem zuvor mit 12.378 anderen Bildern trainierten Algorithmus automatisiert bewertet.
Nur sieben der 157 Dermatologen schnitten besser als der Algorithmus ab, 14 erzielten gleich gute Ergebnisse und 136 hatten schlechtere Ergebnisse. Im Durchschnitt war der Algorithmus präziser in der Beurteilung der Hauttumoren als die Hautärzte. Dabei spielte es keine Rolle welche Position und Erfahrung der Arzt hatte. Im Durchschnitt waren Assistenzärzte über Fach- und Oberärzte bis zum Chefarzt dem Algorithmus unterlegen.
„Der Einsatz von künstlicher Intelligenz wird in der Dermatologie zukünftig wichtiger werden, um präzise Diagnosen zu erstellen. Der Algorithmus könnte die klinische Beurteilung von Hauttumoren sinnvoll ergänzen“, kommentiert Jochen Sven Utikal, Leiter der Klinischen Kooperationseinheit des DKFZ, die Ergebnisse der Studie.
Arzt wird nicht überflüssig
Die Diagnose von Hautveränderungen allein durch den Algorithmus ist allerdings nach Meinung der Heidelberger Wissenschaftler nicht zu empfehlen. Ein Einsatz auf mobilen Endgeräten ist zwar in bestimmten Situationen denkbar, setzt die Patienten aber derzeit noch zu hohen Risiken aus. Denn der Algorithmus kennt bisher nur zwei Diagnosen: Muttermal oder schwarzen Hautkrebs. Bei dieser Fragestellung ist die künstliche Intelligenz bei Bilddaten überlegen. „Die klinische Realität ist allerdings eine völlig andere: Ein Facharzt muss bei der körperlichen Untersuchung zwischen mehr als hundert Differentialdiagnosen unterscheiden können, davon sind viele sehr selten, einige sind kaum allein am Bild zu erkennen, sondern brauchen weitere Informationen wie zum Beispiel Tasteindrücke“, berichtet Alexander Enk, Direktor der Universitäts-Hautklinik Heidelberg.
Wie der Autopilot im Flugzeug
Kann eine künstliche Intelligenz in zehn Jahren die klinische Diagnose durch den Hautarzt vollständig ersetzen? Nein, meinen die Heidelberger Mediziner. Sie kann ihn aber unterstützen: „Es ist ähnlich wie beim Autopiloten im Flugzeug: Bei gutem Flugwetter und häufigen Strecken ist das Assistenzsystem hilfreich. Bei schwierigen Landungen muss ein erfahrener Pilot hingegen Verantwortung übernehmen. Das kann ein Computer allein nicht leisten“, sagt Titus Brinker, Leiter der Studie und Wissenschaftler am DKFZ, NCT Heidelberg sowie Assistenzarzt an der Universitäts-Hautklinik Heidelberg.
Die Studie ist Teil des „Skin-Classification-Projekts“, welches von Brinker am DKFZ initiiert wurde und durch das Bundesministerium für Gesundheit gefördert wird.