Karl Mannheim: Big Data braucht eine Computerrevolution

"Da ist sehr viel Platz für Innovation, die sich viele aber nicht zutrauen. Die großen Hardwarelieferanten schon gar nicht."

Video abspielen
Karl Mannheim: Big Data braucht eine Computerrevolution (Video)
Youtube

Nicht nur bei großen Forschungsreihen türmen sich Datenberge auf. Auch im Büro oder beim Autofahren wächst das Datenvolumen, das Computer verarbeiten müssen, immer rasanter. Neue Rechnerarchitekturen sind gefragt, erklärt Karl Mannheim von der Universität Würzburg. Was für innovative Ansätze gibt es, damit das Tempolimit von Prozessoren und Speichern Big Data nicht ausbremst? Mit "The Machine" und neuromophem Computing gibt es spannende neue Technologien.
 

Jede Woche neu beim Stifterverband: 
Die Zukunftsmacher und ihre Visionen für Bildung und Ausbildung, Forschung und Technik

Autor: Timur Diehn
Produktion: Webclip Medien Berlin
für den YouTube-Kanal des Stifterverbandes

 

Transkript des Videos

Der Umfang der Rohdaten, so nennen wir das, die Experimente generieren, ist gewaltig. Also, die Vorstellung reicht nicht aus, sich Exabyte oder Zettabyte vorzustellen. 

Es wird aber auch bei, ja, Technologien des Alltags, beim autonomen Autofahren und anderen Dingen, vielleicht bei der virtuellen Realität, die uns über Brillen dann eingespielt wird, auch in 10, 20 Jahren so sein, dass überall diese Datenmengen anfallen im zivilen Geschehen. Das spürt natürlich so direkt niemand, ist aber eine technologische Herausforderung.

Da ist sehr viel Platz für Innovation, die sich viele aber nicht zutrauen. Die großen Hardwarelieferanten schon gar nicht, die denken in sehr kurzen Produktzyklen. Und das, wovon wir hier sprechen, also eine zehn-, 20-jährige visionäre Konzeption traut sich kaum ein Hardware-Hersteller zu, jedenfalls nicht öffentlich. Die einzige Firma, die das gemacht hat, war Hewlett Packard Enterprise mit "The Machine", einem revolutionären Ansatz des memory-driven computing, wo man also von den klassischen Architekturen mit kleinen Random-Access-Memory-Bereichen hingeht zu gewaltig großen Memories, die direkt mit den Prozessoren sprechen. Also, die Daten müssen bei der Analyse praktisch gewalkt werden. Sie laufen mehrmals hin und her zwischen Speicher und Prozessor, bis das finale Datenprodukt daraus entsteht. Und dieser mühlenartige Prozess generiert einen Datenverkehr in den Bussen der zentralen Hardware-Komponenten, die nicht mehr beherrschbar sind. Das führt zu Kühlungsproblemen, Integrationsproblemen usw. Also, hier ist der Ansatz gemacht worden, mit einer neuen Architektur einen viel größeren Speicherbereich mit einem neuartigen Bus zu koppeln, der auch photonische Bauelemente enthält, der eben die Interaktion mit den einzelnen Messsystemen so beschleunigt, dass eben die Datenreduktionsschritte viel schneller durchlaufen werden können. Das ist also ein kommerzieller Ansatz von Hewlett Packard Enterprise. Da waren Bauelemente drin geplant, die elektrotechnisch nicht herstellbar waren, bislang jedenfalls noch nicht. Deshalb hat es einen großen Rückschritt gegeben. Aber das Projekt lebt. Es gibt auch eine Pilotanlage bei einem Helmholtz-Institut in Bonn, die schon betrieben wird. Und es ist interessant, dass die Firma anerkennt, dass die Software, die man stricken muss, um diese Bus-Systeme zum Laufen zu bringen, aus den Projekten kommen muss. Das ist ein Open-Source-Projekt, wo die Anwender, die "The Machine" einsetzen, dann am Ende mit ihren Studenten sozusagen, sich eigentlich das System konfigurieren, das für sie dedizierte Dienste leistet. Und das ist etwas für die Zukunft: Datenzentren, zugeschnitten auf die Anforderungen von Projekten, und Studenten, die wirklich auf diesem Level mitarbeiten, dass sie da in einer Open-Source-Umgebung etwas leisten. Die digitale Revolution ändert die Rolle der großen Konzerne. Die können in der Komplexität des Geschehens nicht mehr für alle Komponenten die Verantwortung übernehmen. Die können die Hardware hinstellen, aber ab einem bestimmten Anpassungslevel an die Projekte müssen sie das den Communities überlassen, es selber zu machen.

Karlheinz Meier in Heidelberg hat völlig innovative Computer entwickelt, von der Pike auf. Die basieren auf ganz anders gearteten Chips. Er nennt das den neuromorphen Computer. Das ist ein Physiker, der auch ursprünglich aus der Elementarteilchenphysik stammt, der das gemacht hat. Der neuromorphe Computer hat in der Silizium-Struktur Neuronen nachgebildet und Synapsen. Das heißt, der Algorithmus der neuronalen Netze, der gute Dienste in der Data Science leistet, wird hier in der Hardware umgesetzt. Das führt zu Energieeinsparung in fantastischem Ausmaß bei der Ausführung der entsprechenden Rechenschritte. Ich glaube, der Faktor ist etwa eine Million an Einsparung an Rechenzeit und Rechenpower. Und das sind Anforderungen, die erfüllt werden müssen. Wir können sonst auch bei den großen sozusagen gesellschaftlichen Anforderungen hier nicht bestehen. Es kann nicht in jedem Haushalt ein großer Serverschrank stehen, der irgendwas tut. Auch die Firmen können das langfristg nicht nachhaltig so darstellen. Da muss was in Sachen Effizienz geschehen. Und wir selber sind ja die besten Beispiele mit unseren Neuronen, die wir arbeiten lassen mit relativ geringem Energieaufwand. Also, da, glaube ich, tut sich unglaublich viel an der Schnittstelle zwischen Industrie und den wissenschaftlichen Communities, was die Data Science befördert. Und wo aber auch eben wieder das interdisziplinäre Zusammenarbeiten notwendig ist und wo natürlich irgendjemand das Getriebe fetten muss mit ein bisschen Finanzmitteln. Also, die Industrie, der ist es viel zu riskant und langreichweitig, die müssen ja für zwei Jahre, vielleicht maximal drei planen. Und das sind also visionäre Projekte, die muss man über zehn, 20 Jahre planen.