Future Skills

Zeitenwende in der Wissenschaft

image
Bernd Stuckmeyer/Seitenplan
©

Auf den ersten Blick sind es seltsam anmutende Szenen, die sich an einem kühlen Abend im Berliner Park am Gleisdreieck abspielen. Ein Dutzend Besucher in Outdoor-Kleidung zückt wie auf Befehl seine Smartphones, richtet sie gegen den Himmel und beginnt, Sterne zu fotografieren. Was auf den ersten Blick wie ein spontanes Happening aussieht, ist citizen science – Bürgerwissenschaft in Aktion, koordiniert und geplant vom kanadischen Physiker und Postdoc an der FU Berlin, Christopher Kyba. 

Über das Web, über soziale Medien hat der junge Physiker zu diesem „Flashmob für die Wissenschaft“ aufgerufen. „Die Teilnehmer fotografieren Sternbilder, die dann kategorisiert werden – je nachdem, wie viele einzelne Sterne zu erkennen sind“, erklärt Kyba. Mit seinem Projekt will er zunächst kartieren, wie künstliche Beleuchtung das natürliche nächtliche Licht beeinträchtigt. Im nächsten Schritt soll untersucht werden, wie sich diese Lichtverschmutzung auf Mensch und Umwelt auswirkt. Unter dem Titel „Verlust der Nacht“ sucht Kyba seine Mitstreiter dafür auch auf der ersten deutschen Citizen-Science-Plattform „Bürger schaffen Wissen“, die vom Bundesministerium für Bildung und Forschung und dem Stifterverband gefördert wird.

image
Illustration: Bernd Struckmeyer/Seitenplan
©

Skepsis gegenüber Vorreitern

In Kybas Lichtverschmutzungs-Projekt werden wie unter einem Brennglas Chancen und Möglichkeiten sichtbar, die neue digitale Medien Forschern bieten. Die Praxis des jungen Wissenschaftlers stellt aber auch herkömmliche wissenschaftliche Institutionen und Verfahren auf mehrfache Weise infrage: Nicht über herkömmliche Forschungsförderung, sondern über Crowdfunding auf der Plattform sciencestarter.de warb er Gelder für Lichtmessgeräte ein, mit denen nun ganze Schulklassen die Himmelshelligkeit messen sollen. Die bisher festgefügte Rolle des Wissenschaftlers löst sich mit jungen Nachwuchsforschern und älteren, nicht weniger enthusiastischen und oft kenntnisreichen Laien, die sich übers Netz zum Sternguck-Flashmob verabreden, zunehmend auf. Dank der massenhaften Hilfe von Bürgerwissenschaftlern und nahezu ubiquitär verfügbarer digitaler Technik können Daten in Mengen erhoben werden, wie es bislang nie möglich war.

In der deutschen Hochschullandschaft indes sehen viele solche digitalen Vorreiter wie Kyba mit Skepsis und Distanz: Eine digitale Wissenschaft verlangt Offenheit, Transparenz und Austausch – die Bereitschaft, zu teilen, Ideen wie Daten, und dies bereits in einem frühen Stadium des Erkenntnisprozesses. Dies kollidiert mit klassischen Strukturen des Wissenschaftssystems: Reputation erwerben Forscher nach wie vor dadurch, dass sie ihre Erkenntnisse als erstes in renommierten Zeitschriften publizieren. Informationen vorher herauszugeben, wird daher als hinderlich, wenn nicht gefährlich betrachtet. 

„Man spielt an den Hochschulen nun so ein bisschen Digitalisierung.“

image
Anja C. Wagner (Foto: privat)
©
Anja C. Wagner
Multimedia-Expertin und Mitgründerin der „Crowd University for modern life“

Doch nicht nur in der Forschung, auch in der Lehre entfaltet die Digitalisierung ihren disruptiven Charakter. Akademische Autoritäten, die ihr Wissen früher als Quasimonopolisten ex cathedra verkünden konnten, sehen sich mit einer horizontal wie heterogen organisierten Netzcommunity konfrontiert. Wissen zirkuliert in Foren und Wikis, statt Verkündigung zählen dort die Fähigkeiten zu Austausch und Kommunikation auf Augenhöhe, ein lernendes System, in dem Laien- und Expertentum stets im Fluss sind. Dazu kommt eine schiere Explosion von über das Web verfügbaren Informationen. Kompetenzen wie die der mühsamen Generierung von Wissen treten in den Hintergrund gegenüber Fähigkeiten, zu ordnen, Relevanz zu erkennen, Richtigkeit und Rationalität festzustellen.

Ignorieren und Nicht-wahrhaben-Wollen, Schockstarre und akademisches „Beamten-Mikado“ nach dem Motto: „Wer sich bewegt, hat verloren“ – dies seien überwiegend die ersten Reaktionen an deutschen Unis auf die digitale Herausforderung gewesen, schildert Anja C. Wagner, eine der führenden Multimedia-Expertinnen Deutschlands und Mitgründerin der Crowd University for modern life. Nachdem sich die Wirkungen von Web, Smartphone & Co nicht mehr wegdiskutieren ließen, sei nun eine zweite Phase eingetreten: „Man spielt nun so ein bisschen Digitalisierung“, sagt Wagner. 

Mehr Interaktion wagen

„Die Zukunft ist schon da – sie ist nur nicht schon überall gleichzeitig angekommen“, sagt Jörn Loviscach. Der Bielefelder Informatik-Professor ist Themenpate für Innovationen in Lern- und Prüfungsszenarien des Hochschulforums Digitalisierung (HFD) (siehe Infobox), das als unabhängige Plattform den Dialog über Digitalisierungspotenziale der deutschen Hochschulen bündeln und moderieren will. Auch Loviscach beobachtet teilweise sehr isolierte Leuchttürme der digitalen Lehre. Nun stelle sich die konkrete Frage: „Wie kann man die einzelnen Initiativen so bündeln, dass sie in der Breite wirken?“ Momentan, so Loviscach, sehe man bei Lehrveranstaltungen „eine Art von Silobildung“. Unverbunden nebeneinander stünden die klassische Veranstaltung – „und etwas Digitales, eine Lernplattform, auf der PDF-Dokumente abgelegt werden. Und das war‘s dann auch schon mehr oder weniger. Das Spannende ist aber, diese Silobildung aufzulösen und dafür zu sorgen, dass die Dinge miteinander vernetzt werden.“

Hochschulforum Digitalisierung

Mit dem Hochschulforum Digitalisierung (HFD ) bauen Stifterverband, die Hochschulrektorenkonferenz und das Centrum für Hochschulentwicklung eine nationale Expertenplattform zum digitalen Wandel auf. Ziel: Akteure aus Politik, Wirtschaft und Wissenschaft zum Thema digitale Hochschullehre zu vernetzen. Damit will das HFD den Diskurs über Chancen und Herausforderungen bei der Einbindung digitaler Medien in die Hochschulbildung stärken. Konkret sollen die Teilnehmer in sechs Themengruppen binnen drei Jahren Denkanstöße geben, Empfehlungen erarbeiten und sich mit Best-Practice-Beispielen und Initiativen der digitalen Lehre auseinandersetzen. 

Zur Website

Loviscach, der seine Vorlesungen selbst seit Jahren auf das Videoportal YouTube stellt und neuerdings auch einen MOOC (massive open online course) bei der US-Plattform Udacity anbietet, nennt die Idee, dass bereits fortgeschrittene Studenten Inhalte und Aufgaben für ihre Kommilitonen niedrigerer Semester produzieren könnten. „Und dabei nicht nur Aufgaben produzieren, sondern auch wirklich interagieren, kommunizieren zwischen den Semestern, mithilfe digitaler Medien. „Überhaupt“, sagt Loviscach, „werden diese Kommunikationsfunktionen viel zu wenig genutzt.“ Der Einsatz digitaler Medien hat seine Rolle als Hochschullehrer bereits fundamental verändert: Denn der Mittfünfziger setzt auf das Konzept des inverted teaching, des „umgedrehten Lernens“, bei dem Studierende den Stoff zu Hause mithilfe von Lernvideos erarbeiten. Im Hörsaal ist dann Zeit für Fragen und Probleme der Studenten, für Vertiefung, für Dialog. Aus dem einst einsam Vortragenden wird ein professioneller Experte, der Fachdiskussionen moderiert und lenkt.

Wer schreibt die Onlineprüfung?

An der Fernuni Hagen können Studierende Laborversuche über das Internet durchführen und beobachten – ganz unabhängig von Öffnungszeiten, auch am Abend oder am Wochenende. „Die wurden früher mal an einem Nachmittag genutzt. Sonst lagen die brach“, erzählt der Rektor der Fernuni Hagen, Helmut Hoyer. Für die Uni sehr teure experimentelle Anlagen erführen nun die notwendige Auslastung.

Mit der Loslösung des Lernens von Zeit und Raum sind Hoffnungen wie auch Herausforderungen für eine digitalisierte Hochschullehre verknüpft: Wenn Studenten nicht nur Experimente, sondern auch Prüfungen virtuell absolvieren, brauche man Mechanismen zur Verifizierung, ob die Person am Computer identisch ist mit derjenigen, die die Leistung anerkannt haben möchte, betont Hans Pongratz, geschäftsführender Vizepräsident für IT-Systeme und Dienstleistungen der TU München. Mit der zunehmend internationalen Nutzung digitaler Module stelle sich zudem die Frage, wie solche Kurse wo anerkannt werden.

Die naiven Hoffnungen mancher Hochschulpolitiker, digitale Medien seien kostenmäßig Selbstläufer, durch die Verlagerung von Kursen und Versuchen ins World Wide Web ließen sich möglicherweise gar Geld und Personal sparen, zerschellen gerade in den Mühen der Ebene. „Diese ganze Diskussion nach dem Motto ,Was kann ich damit sparen‘ ist der falsche Ansatz“, sagt Michael Jäckel, Präsident der Universität Trier. „Ohne zusätzliche Personalressourcen wird es nicht gehen.“ Der Themenpate im Hochschulforum Digitalisierung für den Bereich „Governance & Policies“ verlangt einen Schub bei der digitalen Grundausstattung an den Universitäten und warnt davor, Fehler wie bei der Einführung des E-Learning zu wiederholen. Damals seien die Unis bei der Verstetigung des E-Learning alleingelassen worden, es habe keine weitreichenden Grundfinanzierungsprogramme gegeben.

image
Illustration: Bernd Struckmeyer/Seitenplan
©

„Diese ganze Diskussion nach dem Motto „Was kann ich damit sparen“ ist der falsche Ansatz.“

image
Michael Jäckel (Foto: Oliver Hein)
©
Michael Jäckel
Präsident der Universität Trier und Themenpate der HFD-Themengruppe „Governance & Policies“

Der anfängliche Hype um die MOOCs, konstatiert die Wissenschaftsmanagerin Dorothea Rüland, sei in Deutschland wieder ein wenig abgeklungen. „Man ist hier wieder auf dem Boden der Tatsachen gelandet“, sagt Rüland, die auch als HFD-Themenpatin für „Internationalisierung & Marketingstrategien“ fungiert. Man nehme nun wahr, dass elektronische Lehrformate, die nicht nur produziert, sondern auch aktualisiert und fachlich begleitet werden müssten, auch erhebliche Kosten verursachten.

Macht sich in puncto digitaler Lehre bereits eine Desillusionierung an deutschen Hochschulen breit? Der Münchner Hans Pongratz jedenfalls macht durchaus ein digitales Gefälle zwischen Forschung und Lehre aus. „Die Forschung ist bereits sehr digitalisiert und international. Unsere Forscher sind sehr international und hochgradig vernetzt. Die sind da sehr am Puls der Zeit. In der Lehre ist das oft noch nicht so.“ Ein Gefälle, das sich zwischen Natur- und Geisteswissenschaften fortsetzt. 

Mit Big Data auf Spurensuche

Zum übergreifenden Motor der Digitalisierung in der Wissenschaft hat sich in den vergangenen Jahren big data – die Auswertung und Verwertung großer Datenmengen – entwickelt. Das Entdecken bisher verborgener Zusammenhänge durch die Korrelation unterschiedlicher Datenströme sowie Simulationen mit großen Datenmengen sind in Natur- und Technikwissenschaften mittlerweile etabliert und dringen langsam auch in geisteswissenschaftliche Disziplinen vor. 

Wie Big Data die Wissenschaft verändert. Interview mit dem bundesweit ersten Professor für Big-Data-Analytics Matthias Hagen.
Zum Interview

„Besonders die Bioinformatik ist hier ein Feld, das sich rasant entwickelt“, sagt Jürgen Renn, Direktor am Max-Planck-Institut für Wissenschaftsgeschichte in Berlin. Die Bioinformatiker vom International Barcode of Life etwa wollen mithilfe von crowdsourcing alle auf der Erde lebenden Tierarten identifizieren. Bürger weltweit sind aufgerufen, Proben einzusenden, die in eine Datencloud hochgeladen werden. Die Plattform für die Analyse stellt der Software-Multi SAP zur Verfügung. Ein ähnliches Angebot hat IBM in Brasilien gestartet, um die Biodiversität im Amazonasgebiet zu kartieren.

Die Frage danach, wem die gesammelten Daten gehören – und wer die Rechte an einer gegebenenfalls kommerziellen Verwertung erhält, stellt sich sowohl bei der Einbeziehung von Konzernen wie Bürgerwissenschaftlern. Drängender wird die Frage nach Daten, ihrer Verwertung und ihrem Schutz bei big data in der Medizin. Potsdamer Forscher etwa haben das „In-Memory-Verfahren“ entwickelt, bei dem sich die einst langwierige Entschlüsselung eines individuellen menschlichen Genoms dank eines Superrechners auf wenige Sekunden reduzieren lässt.

Über Nacht grast der Potsdamer Computer dann alle Informationen aus öffentlich zugänglichen Genom-Datenbanken ab und sucht darin nach vergleichbaren Fällen. Das Ziel: Therapien zu finden, die anderswo eine hohe Überlebensrate bei bestmöglicher Lebensqualität sicherten. So wird der Fortschritt von Therapien abhängig von netzbasierten big data, der flächendeckenden Registrierung aller Patienten. 

Mensch oder Maschine

Die Möglichkeit, dank stark gestiegener Rechenleistung große Datenmengen zu archivieren und zu verarbeiten, verändert langsam, aber stetig auch die Geisteswissenschaften. Die digital humanities sind im Kommen, auch sie haben durch big data einen Schub erfahren, sagt Andrea Rapp, Professorin für germanistische Computerphilologie an der Technischen Universität Darmstadt. Rapp und ihr Team haben die Handschriften einer Benediktinerabtei in Trier mittlerweile vollständig digitalisiert, 180.000 Seiten, „das ist schon ziemlich ,big‘“, lacht die Professorin.

Statt mühsamer menschlicher Arbeit setzt Rapp auf Automatisierung: Vom Einlesen über die Vermessung der Seiten bis zu ihrer statistischen Auswertung. „Man kann nun einen Überblick über interessante Stellen bekommen, die man sich mit menschlicher Arbeitskraft schon aus Zeitgründen nie erarbeiten könnte.“

Ein großer Vorteil der Digitalisierung von Quellen: „Statt zufallsabhängig zu finden, kann man nun sehr genau suchen und nachbohren.“ Im Fall der digitalisierten Klosterschriften ließen sich nun belastbare Zahlen dazu gewinnen, wie sich etwa das Verhältnis von Layout zu Text bei einer Bibel entwickelt hat. Weißraum sei etwa sehr aussagekräftig: Habe man diesen beim kostbaren Papier auf verschwenderische Weise zugelassen, so lasse sich eventuell darauf schließen, dass das dort Geschriebene als umso höherwertig gegolten habe. Rapps Kollege Matthew Jockers ließ eine Software über mehrere tausend englischsprachige Romane aus dem 18. und 19. Jahrhundert laufen. Über die Häufigkeit bestimmter Wörter und literarischer Motive wies er nach, dass Walter Scott und Jane Austen spätere Autoren am stärksten beeinflussten.

„Wir bekommen eine ganz andere Qualität durch eine neue Genauigkeit“, betont Rapp. Wenn man statt drei bis vier nun etwa 1.000 Textstellen auswerten könne, rücke eine gesamthafte Prüfung des Forschungsmaterials in Greifweite. Eine größere Transparenz, eine schärfere Präzision, aber auch eine bessere Nachvollziehbarkeit hielten Einzug in die humanities. Die Implementierung der wichtigen Kategorien aus der Naturwissenschaft, sagt Rapp, könne perspektivisch zu einer Wiederannäherung von Geistes- und Naturwissenschaften führen.

„Digitale Methoden besitzen keine unbestechliche Objektivität. Nur weil der Rechner alles gleich behandelt, heißt das nicht, dass keine Ungleichbehandlung in den Anweisungen steckt.“

Theo Röhle
Medienwissenschaftler und Senior Lecturer an Universität Karlstad

Doch die Geisteswissenschaften zeigen sich durchaus gespalten, was den Vormarsch der Digitalisierung angeht. Zu den Digital-Skeptikern zählt der Medienwissenschaftler Theo Röhle. Röhle warnt davor, dass eine „Faszination für Verfahren und Technik selber den realistischen Blick darauf verstellen könnte, was da an Neuem produziert wird“. Eine Art Objektivitätsversprechen drohe sich in die Geisteswissenschaften einzuschleichen.

Im Aufsatz „Digital Methods: Five Challenges“, den Röhle gemeinsam mit Bernhard Rieder verfasst hat, sieht er etwa den visuellen Output digitaler Forschung kritisch. Die Kraft der Bilder sei eindrucksvoll und intuitiv überzeugend, die angebliche Eindeutigkeit drohe jedoch Ambivalenzen, unterschiedliche Deutungsmöglichkeiten, zu verschleiern. Theo Röhle zweifelt auch die angeblich unbestechliche Objektivität digitaler Methoden an. Die Art, wie Analyseeinheiten definiert und interpretiert werden, beinhalte immer auch subjektive Entscheidungen. „Nur weil der Rechner alles gleich behandelt, heißt das nicht, dass keine Ungleichbehandlung in den Anweisungen steckt“. Den Forschungsprozess zu mechanisieren und Aufgaben an Algorithmen zu delegieren – das könne paradoxerweise die Transparenz, die Nachvollziehbarkeit der Methodik, die Reproduktion und die wissenschaftliche Kritik unterminieren. Die Welt als Netzwerk zu deuten, überbetone zudem das Strukturelle, es drohe die Gefahr, eine „universelle Wissenschaft“ schaffen und divergierende wissenschaftliche Disziplinen versöhnen zu wollen. Dies sei aber in der Vergangenheit mehrfach gescheitert. In Zeiten, in denen Forschungsvorhaben zunehmend nur noch auf Projektbasis finanziert würden, drohe schließlich eine Bevorzugung von Herangehensweisen, die vorzeigbare, einleuchtende Resultate vorlegen könnten, „einer Art der Wissensproduktion, die aus der Förderlogik heraus attraktiv ist.“

Reflexions- und Arbeitsintensives, das nicht mit schnellen Ergebnissen aufwarten kann, könne als zu teuer erscheinen. „Wir müssen nicht nur das Potenzial, sondern auch die Grenzen der neuen Methoden sehen“, warnt Röhle. Keinesfalls wolle er als Technikpessimist missverstanden werden. „Aber die Werkzeuge, die wir nutzen, schreiben immer auch an den Ergebnissen mit.“  

Offene Wissenschaft

Der Wissenschaftshistoriker Jürgen Renn sieht gerade darin eine der großen Chancen der Digitalisierung. Sie biete Möglichkeiten, „in ganz neuen Modellen zu denken“, um die herum Wissen neu und flexibel angeordnet werden könne. Voraussetzungen: die digitale Archivierung der Wissensbestände und der offene Zugang dazu, über open access. Die jüngsten Gesetzesinitiativen dazu, sagt Renn, hätten nicht die erhofften Fortschritte gebracht. „Das, was die Wissenschaftler von der Urheberrechtsreform wollten – Wissen möglichst breit zugänglich machen zu können – dieses Ziel hat sich nicht erfüllt.“

image
Illustration: Seitenplan/Bernd Struckmeyer
©

Neue vernetzte Modelle im Sinne von open science – einer offenen Wissenschaft, wie sie dem Berliner Max-Planck-Forscher vorschweben, sind dennoch bereits am Werk. Renn denkt etwa an ein virtuelles Modell, um Entwicklung und Untergang der Stadt Pompeji darzustellen. Forscher unterschiedlicher Fachdisziplinen könnten dieses bestücken: von den geologischen Bedingungen bis zum Gesundheitszustand der Bewohner. Es entstünde ein organisches, quasi lebendiges digitales Abbild der Stadt vor dem Vulkanausbruch. 

Wenn man solche „digitalen Modelle neuer Wissensmodelle forciere“, sagt Renn, müsse man in Konsequenz auch über neue, liquide Publikationsmodelle nachdenken: sich stets fortentwickelnde Artikel, die verbessert und aktualisiert werden – wie etwa die sogenannten liquid journals. Probleme, wie etwa die Zitierfähigkeit jeder Textversion gesichert werden kann, sind hier über die Versionsverwaltung geregelt. Bei anderen Fragen – wie etwa die neuen Leistungen der Programmierung, Verschlagwortung, der Datenherstellung und Vernetzung von Inhalten wissenschaftlich anerkannt werden – stehe die scientific community in der Verantwortung, Lösungen zu finden. Wer mit Vordenkern wie Renn spricht, dem fällt zur digitalisierten Forschung und Lehre das Topos eines Rhizoms ein: ein Wurzelsystem, das die Wissenschaftsdisziplinen gleichermaßen vernetzt wie erdet. „Die heute relevanten Themen liegen immer in den Grenzbereichen“, sagt Renn. Zukunftsrelevante Fragen wie etwa in der Klimaforschung ließen sich zunehmend nur noch interdisziplinär beantworten.

Open Science

Open science – dieses Schlagwort steht für eine offene Wissenschaft im Netz. Der digitale Ansatz dieser „offenen Wissenschaft“ geht weiter als bisherige Open-Access-Strategien für einen freien Zugang zu Forschungsergebnissen im Internet. Open science ist ein Oberbegriff für verschiedene Ideen und Praktiken, um eine größere Zahl von Menschen bereits an der Entstehung wissenschaftlicher Ergebnisse teilhaben zu lassen – oder ihnen, wie etwa bei der citizen science (zu deutsch: Bürgerwissenschaft) Möglichkeiten zu eröffnen, selbst daran teilzuhaben. In Deutschland fördert etwa die Helmholtz-Gemeinschaft den offenen Zugang zu wissenschaftlichem Wissen, seine Verifizierbarkeit und Nachnutzbarkeit sowie seinen Transfer in die Gesellschaft. Doch an open science gibt es auch massive Kritik: Open science sei ein Wegbereiter für die Kommerzialisierung des Wissens, prangerte der US-Wirtschaftshistoriker Philip Mirowski in der „FA Z“ an. Bei der angestrebten Automatisierung von Forschungsprozessen gehe es um Personaleinsparungen. Die vorgebliche Offenheit bedeute in Wirklichkeit neoliberale Überwachung und Kontrolle, die die Autonomie der Wissenschaftler gefährdeten. 

Entscheidende Quellen des Wissens seien hier nicht mehr einzelne Publikationen bei Wissenschaftsverlagen, sondern vernetzte Datenbanken und Simulationen. Renn macht sich daher nicht nur für open access stark, sondern für großräumige offene und unabhängige digitale Strukturen, „die Schaffung eines Qualitätsraums für Informationen“. Diesen, so Renn, müsse die Zivilgesellschaft indes gegen die Kräfte von Markt und Staat energischer denn je erringen und verteidigen. 

Tauchen Sie tiefer in unsere Insights-Themen ein.
Zu den Insights