Neuartige Computerarchitektur für die Demenz-Forschung

Mit einer neuartigen Computerarchitektur lässt sich die Rechenleistung heutiger Computer viele tausend Mal steigern. Davon profitieren soll auch die medizinische Forschung beispielsweise im Bereich der Alzheimer-Krankheit.

Die Architektur aller heutigen Computer ist bereits über 60 Jahre alt. Dadurch sind sie schon jetzt in einigen Bereichen nicht mehr in der Lage, das exponentielle Datenwachstum zu bedienen. Probleme bereitet das zum Beispiel in der medizinischen Forschung. Davon ist auch das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) betroffen, das unter anderem die Parkinson- und Alzheimer-Krankheit untersucht. Dort fallen bei der Bildgebung und Analyse von Erbinformationen riesige Mengen an Rohdaten an. Das Forschungsprogramm „The Machine“ von Hewlett Packard Enterprise (HPE) hat sich zum Ziel gesetzt, die Begrenzungen der heutigen Computer-Architektur zu überwinden. Als Resultat dieser Forschung hat HPE jetzt den ersten Prototyp einer radikal neuen Computer-Architektur in Betrieb genommen. Ihr Kern ist nicht mehr der Prozessor – sondern ein neuartiger, sehr großer Speicher.

HPE nennt seine neue Architektur „Memory-Driven Computing“. Damit lässt sich die Rechenleistung viele tausend Mal steigern. Nun hat HPE einen Kooperationsvertrag mit dem DZNE geschlossen. Das DZNE will als europäischer Partner die neuartige Rechner-Architektur in der naturwissenschaftlich-medizinischen Forschung einsetzen. Dabei werden sowohl Rechner in Palo Alto genutzt, als auch Entwicklungssysteme beim DZNE eingesetzt. Am Ende wollen die Partner den Forschungsprozess beschleunigen und dessen Präzision durch die Analyse größerer Datenmengen erhöhen. Die Partner wollen in den nächsten Wochen gemeinsam die ersten Pilotentwicklungen beginnen. Von diesen Möglichkeiten versprechen sich die Wissenschaftler völlig neue Erkenntnisse bei der Erforschung der Ursachen von Alzheimer und anderen Demenz-Erkrankungen.

Völlig neue Erkenntnisse für die Demenz-Forschung

Das DZNE erstellt mit Hilfe der Magnetresonanztomographie (MRT) Bilder der Gehirne von Probanden. Bei schnellen Messungen mit hoher Auflösung können dabei bis zu 0,5 Gigabyte Rohdaten pro Sekunde an – also bis zu zwei Terabyte pro Stunde. Diese Daten werden jedoch nicht im Gerät gespeichert, sondern direkt in Bilder umgerechnet und anschließend verworfen. Am Ende sind die in den Bildern enthaltenen Informationen um einen Faktor 300 kleiner als die in den (nicht gespeicherten) Rohdaten. Das hat jedoch entscheidende Nachteile: Moderne Verfahren könnten Bilder mit deutlich höherer Qualität erzeugen, indem Störsignale aufgrund von Probandenbewegung oder Rauschen herausgefiltert würden. Das kann allerdings zurzeit im Nachhinein nur schwer oder gar nicht erreicht werden, da die Menge der Rohdaten zu groß ist. Die neue HPE-Architektur würde eine ideale Plattform bieten, um diese Daten vollständig zu speichern und zu exzellenten MRT-Bildern zu verarbeiten. Dies wäre eine Revolution nicht nur für die MRT-Studien am DZNE, sondern für die gesamte diagnostische Praxis.

Ein weiterer Vorteil: Bisher werden die Bilder umgerechnet, verknüpft und anschließend ausgewertet. Diese Analyse dauert in der Regel zwischen sieben und 14 Tagen. Erst danach können die DZNE-Forscher den nächsten Schritt definieren und einen weiteren Analysezyklus starten. Der Einsatz der neuen Technologie würde die Auswertung von Großvolumen-Daten dramatisch beschleunigen und damit die unmittelbare Analyse erleichtern, sind sich die HPE-Forscher sicher. Denn der Proband könnte während eines Untersuchungszeitraums spezifisch nachuntersucht werden. Oder die Forscher könnten sofort die aktuellen Aufnahmen mit älteren vergleichen. Auf die Situation im Krankenhaus übertragen, wäre dadurch eine personalisierte Diagnostik möglich, die es so heute noch nicht gibt.

Flaschenhals beseitigen

Bei der Suche nach neuen Therapien nutzen die DZNE-Forscher auch automatisierte Mikroskope. In einem einzelnen Forschungsprojekt werden Millionen Zellen fotografiert – mit einem Datenvolumen von mehreren Terabyte. Die Analyse der Bilddaten erfordert erhebliche Rechenleistungen und dauert derzeit mehrere Tage bis Wochen (auf einem Hochleistungs-Rechner mit 20 CPUs und 100 Gigabyte RAM). Auch hier könnte die neuartige Rechenarchitektur helfen. Denn sie kann den „Flaschenhals“ beseitigen und den Vorgang deutlich beschleunigen.