Skip to main content

Jürgen Geuter: Wie KI die Hochschulen überfordert

Eigentlich sollten unsere Zukunftsbilder nicht aus Technik entstehen, sondern aus anderen Dingen. Und das war früher auch so.

Video abspielen
Jürgen Geuter: Wie KI die Hochschulen überfordert (Video)
Jürgen Geuter: Wie KI die Hochschulen überfordert (Video)
Youtube

 
Jürgen Geuter hat Informatik und Philosophie studiert und arbeitet als Research Director an der Erforschung, Implementierung und Erprobung neuer Technologien. Als freier Berater, Autor, Soziotechnologe und Keynote Speaker beschäftigt er sich mit Themen an den Schnittstellen von Technologie, Gesellschaft und Politik. Er ist Gründungsmitglied des transdisziplinären Otherwise Network, welches Expertinnen und Experten unterschiedlicher Fachbereiche zur Begleitung des digitalen Wandels vernetzt.

Die wichtigsten Aussagen aus dem Gespräch:

  • Künstliche Intelligenz (KI) wird häufig genutzt, um politische und ökonomische Macht auf zentrale Akteure zu konzentrieren, was zu Abhängigkeiten führt.
  • Hochschulen stehen unter Druck, neue Technologien zu integrieren, obwohl oft Ressourcen fehlen und die Technik nicht immer zur Lehre passt.
  • Technologischer Fortschritt wird oft durch Hypes getrieben, die mehr mit Marketing als mit tatsächlicher technischer Innovation zu tun haben.
  • KI-Systeme sollten spezifische Probleme lösen und nicht als universelle Lösung betrachtet werden; Fokus auf konkrete Anwendungen kann mehr Wert schaffen.
  • Der gesellschaftliche Diskurs über Technik sollte sich weniger auf technische Details konzentrieren und mehr auf deren gesellschaftliche und politische Implikationen.

Interview und Produktion: Corina Niebuhr, Webclip Medien Berlin

 

KI ist kein technisches Thema. KI ist ein Thema, da geht es darum, dass man politische Macht verschieben möchte auf zentrale Akteure. Dafür sind diese Systeme gebaut, so sind sie. Es geht darum, dass alle ihr Leben so organisieren, dass man jeden Monat bei OpenAI die Subscription einbezahlen muss. Das ist, worum es geht. Deshalb wird behauptet, dass man damit alles lösen kann, dass das alles kann und dass das das Beste für alles jeweils ist.

Hochschulen sind auf jeden Fall in diesem ganzen Technikdiskurs, und da ist es egal, welcher Hype es ist, ob es gerade KI ist oder Lernen im Metaverse von ein paar Jahren schon, sind immer die Getriebenen. Sie werden immer von der Wirtschaft vor sich her getrieben, die behauptet, die Studierenden müssen das jetzt lernen, sonst können wir die nicht benutzen. Die Regierung fordert dann alle möglichen Dinge: Warum fallen bei uns keine KI-Expertinnen aus den Unis raus, einfach so, und am besten schon gestern, warum haben wir die ganzen Start-ups nicht? Und andererseits sollen sie natürlich immer die Kosten drücken. Sie sind zu teuer, es muss alles irgendwie schneller gehen, effizienter gehen. Warum studieren die Leute nicht schneller und so weiter? Das heißt, dieser Push von Technologie ist eigentlich immer eingebettet in sehr, sehr viele andere, häufig ökonomisch motivierte Prozesse. Man kann eben nicht einfach so tun und sagen, diese Technik, und jetzt bewerten wir die mal so im luftleeren Raum. Was tut denn das eigentlich? Was tut das denn in der Welt, in der wir leben? Was tut es in der Situation, in der Unis sind? Die meisten Menschen, die an Unis arbeiten, könnten woanders viel mehr Geld verdienen. Die sind offensichtlich da, weil sie Menschen was beibringen wollen. Die haben Lust darauf, Menschen was beizubringen oder zu forschen oder irgendwie die Welt in der Hinsicht zu was Besserem zu machen oder voranzubringen. Aber sie werden halt häufig durch eben diese Inputs von außen nicht darin unterstützt, das zu tun. Und keiner sagt, es gibt hier neue Technologien, die helfen dir an dieser Stelle wirklich weiter und dann setzt sie an der Stelle ein, was sie eh tun würden, wenn man ihnen Raum dafür geben würde. Sondern es ist eher ein "Wir haben jetzt hier so ein Ding, ihr habt jetzt eure Lehre irgendwie voneinander, ihr wisst, was ihr da tun wollt und jetzt werfen wir euch von außen noch irgendwie einen Knüppel zwischen die Beine. Das müsst ihr übrigens auch noch tun.  Mehr Budget gibt es aber nicht. Aber wenn es nicht funktioniert, kriegt ihr weniger Budget." Das ist natürlich eine Situation, in der die Unis auch wirklich durch extreme Zielkonflikte navigieren müssen. Einerseits wollen sie natürlich die Studierenden fit machen für das Leben da draußen und für alles, was sie brauchen. Deshalb sind die Leute, die hier unterrichten, da. Und andererseits müssen sie quasi alle paar Jahre alles umschmeißen, weil jetzt die neue Sau durchs Dorf getrieben wird. Und jetzt sollen sie das machen. Das ist eigentlich häufig ja gar nicht so relevant, was in den Hypes technisch eigentlich drinsteckt. Eigentlich geht es ja darum, strukturelle Dinge zu erkennen, die Leute fit zu machen, dass sie halt selber vielleicht einschätzen können, ob in irgendwas, was drin ist oder nicht. Diese erzwungene Reaktivität der Uni oder der Hochschulen, dass sie immer wieder sich quasi entweder gegen so Hypes wappnen müssen oder die abmoderieren müssen, sagen, ja, es ist ja schön, dass OpenAI das sagt, aber es passt gar nicht zu uns, das ist gar nicht das, was wir hier tun wollen. Oder zu sagen: Das würden wir gerne machen, brauchen wir aber mehr Ressourcen für, weil, keine Ahnung, die Betreuung muss viel intensiver werden, um das sinnvoll zu machen." Das ist wirklich auch eine extrem schwierige Aufgabe und eine Aufgabe, bei der sie auch häufig sehr alleingelassen werden, weil sie, sie stehen da und managen das, was sie tun mit den Ressourcen, die sie haben. Und wenn sie mehr Ressourcen brauchen, weil sie mehr tun sollen, wird immer nur gesagt, das kostet zu viel, das Geld haben wir nicht. Aber die Forderungen werden eigentlich immer nur höher. Immer individuellere Studiengänge, immer maßgeschneiderte Betreuung. Auch die Sicht auf Hochschulen durch die Studierenden hat sich ja verändert. Das ist ja schon so eine Dienstleistungsbeziehung. So, ich kaufe da jetzt meinen Abschluss und auf eine Art und Weise, also nicht, ich kaufe nicht meine Noten, aber so, ich bezahle jetzt für ihn, jetzt kriege ich eine Dienstleistung. Da vorne turnt mir jemand die Inhalte vor und am Ende kriege ich dann meinen Schein dafür und darf hier rausgehen. Auch diese ganzen Dynamiken, die sie entwickelt haben, haben die Hochschulen wirklich in eine extrem schwierige defensive Position gebracht. Und eigentlich bräuchten wir natürlich Hochschulen, die nicht reaktiv, sondern die aktiv aufgrund ihres Wissens, ihrer Kompetenzen, ihres Wissens, ihres Verständnisses, auch der Technologien, die am Markt sind, auch ökonomischer Strukturen, die da irgendwie unterwegs sind, die auf Basis dessen selbstständig definieren, wo es jetzt eigentlich hingehen muss und was Sinn ergibt für die nächsten fünf bis zehn Jahre. Es gibt ja keinen Sinn, den Studis jetzt zu erzählen, was jetzt gerade der Hype ist. Wenn die aus dem Studium rauskommen, ist es ja nicht mehr der Hype. Dann gibt es ja was ganz anderes. Und diesen Kreis in ein Quadrat zu verwandeln, ist eine Aufgabe, um die ich die Hochschulen definitiv nicht beneide.

Wir tun immer so, als würden diese Tech-Anbieter uns Technologien irgendwie erzählen. Und das wäre das, was sie eigentlich tun. Aber es ist ja nicht das, was sie verkaufen. Sam Altman verkauft keine Technologie, sondern er verkauft Science-Fiction. Er verkauft Erzählungen über die Zukunft. Und auch andere Unternehmen. Apple verkauft ja nicht ein iPad. Apple verkauft einem eine Identität und einem das Gefühl, kreativ zu sein und cool zu sein und was auch immer. Dass da zufällig auch technische Artefakte drin hängen, das ist irgendwie manchmal nützlich als Katalysator, aber eigentlich ist es nicht das, worum es geht. Und das ist an vielen Stellen, glaube ich, weshalb die Öffentlichkeit manchmal so schräg auf diese Tech-Hypes reagiert, weil sie halt glaubt, das ist ein technisches Artefakt, und jetzt müsste man dann halt Ingenieure fragen, was steckt da eigentlich drin und so. Und dann will man das verstehen und so weiter. Das ist aber nicht das, was die Anbieterseite eigentlich erzählt. Wir müssen besser darin werden zu verstehen, dass auch diese mit sehr, sehr viel Geld ausgestatteten Tech-Firmen uns erst mal nur Werbegeschichten erzählen wollen, die sehr, sehr häufig nichts mit der Realität zu tun haben. Also vor ein paar Jahren waren nicht nur Meta, sondern auch Microsoft und alle waren überzeugt, dass das Metaverse die Zukunft ist. Das war überall zu lesen. Und sehr, sehr ernstzunehmende Männer mit weißen Haaren haben das alle erzählt. Und wir mussten alle nicken und sagen: Ja, das ist aber eine ernst zu nehmende Sache. Obwohl jeder, der sich damit beschäftigte, wusste, dass das kompletter Humbug ist. Und man muss, glaube ich, den Mut haben, diesen Tech-Leuten zu sagen: Aber das ist doch jetzt Kokolores. Da stimmt doch nichts von. Also, das kannst du zwar aufschreiben. Und ich habe das Science-Fiction-Buch auch gelesen. Aber das ist halt ein Science-Fiction-Buch. Das ist nicht Realität. Erklär mir, wie du von da nach da kommst. Denn Sam Altman sagt: In ein paar Jahren löst unser Chatbot ("solves all of physics"), was auch immer das bedeuten soll. Da muss man ihn halt von der Bühne lachen und nicht in die EU einladen und behandeln wie so einen Staatschef. Und das ist, glaube ich, das Problem, vor dem wir stehen. Wir tun so, als seien das alles Menschen, bei denen man jedes Wort ernst nehmen muss. Bei denen alles, was sie sagen, ist wahr, weil sie Technik in irgendeiner Form verstanden haben. Weil wir glauben, dass Zukunft nur aus Technik entsteht. Das stimmt aber nicht. Wir benutzen manchmal Technik, aber eigentlich sollten unsere Zukunftsbilder nicht aus Technik entstehen, sondern aus anderen Dingen. Und das war früher auch so. Alleine wenn wir an Thomas Moores' Utopia-Geschichte denken, so die erste Science-Fiction-, könnte man es nennen, Geschichte, die geschrieben wurde. Die Vision, die er aufmalte, war nicht technisch. Das war völlig irrelevant, sondern er schrieb davon, dass plötzlich alle Krankenversorgung haben. Das war im Mittelalter. Also da hatte keiner Krankenversorgung, bis auf eine Handvoll Könige. Er schrieb halt in einer Welt, in der es das gibt. Und ich glaube, dass das der wichtige Shift ist, den wir hinbekommen müssen. Nicht alle Tech-Firmen irgendwie abschaffen, sondern zu sagen: "Gut, ihr baut Technik, das ist ja schön. Aber was wir eigentlich wollen, ist nicht Technik. Was wir wollen, ist ein besseres Leben für alle. Mehr Freiheitsgrade, mehr Demokratie. Wir wollen, dass Menschen sich entwickeln können, dass sie ihre Würde völlig entfalten können." Und wenn wir an einer Stelle dann irgendwie ein Problem haben, was Technik lösen kann, okay, dann nehmen wir uns das und setzen das da rein. Aber meistens sind die Herausforderungen, die wir dazu haben, nicht technisch, sondern politisch. Und wir sehen das nirgendwo mehr als an diesem Klimarettungsdiskurs, bei dem jetzt gesagt wird, wir brauchen KI, um das Klima zu retten. Wie man das Klima rettet, hat man mir schon in der, damals hieß es Orientierungsstufe, also in der fünften Klasse beigebracht. Da hieß es Treibhauseffekt, wir müssen CO2 sparen. Das ist, was wir tun müssen. Das wissen wir. Das wissen wir seit 40 Jahren, mindestens, wenn nicht mehr. Jetzt zu behaupten, wir brauchen KI, die uns das dann 30 Jahre noch mal erzählt, wenn es zu spät ist, das ist einfach nur, das ist unseriös und darauf dürfen wir uns nicht einlassen. Das ist nur ein Beispiel, wie dieser Diskurs immer läuft. Die Technikanbieter sagen: "Ihr braucht uns und unsere Lösung, denn wir sind die Einzigen, die die Probleme der Zukunft lösen können." Und erstens machen sie die Probleme häufig. Und zweitens: Wer sind wir denn, dass wir uns von denen abhängig machen? Wir haben auch gute Ideen, und wir brauchen vielleicht manchmal gar keine Technik dazu, sondern nur den Willen, das zu tun, von dem wir wissen, dass es richtig ist.

Man darf jetzt in Europa auch nicht vergessen, dass die natürlich auch, die haben auch FOMO wie so 14-Jährige.
Es gibt halt die ganzen KI-Start-ups in den USA. Jetzt wollen wir europäische KI-Start-ups. Die machen aber dasselbe. Also alles, was schädlich ist an dem, was die in den USA machen, ist auch schädlich, wenn das Mistral in Frankreich tut oder irgendein Start-up in Deutschland tut. Wenn Europa in irgendeiner Form da wirklich eine Hoffnung sein möchte, müssen wir einen ganz anderen Weg finden. Und der ist nicht: "Wir werfen jetzt auch viel Geld auf Datacenter und stecken da NVIDIA-Karten rein und bauen jetzt dieselben KI-Systeme, die es in den USA und China schon gibt." Sondern da muss man finden, was machen wir eigentlich mit dieser Technik? Wo passt das eigentlich in unsere Vorstellung davon, wie die Welt sein sollte, rein? Und dann findet man dafür Lösungen. Aber das ist nicht, wie ich gerade Europa wahrnehme, sondern da geht es auch nur darum, die USA haben viel Geld drauf geworfen, wir werfen jetzt viel Geld drauf. Und dann sind wir einfach ein Jahr später da, wo die auch sind. Nur die sind auch schon wieder ein Jahr weiter. Das ist ein Loserdiskurs, muss man ganz ehrlich sagen.

Also, wenn ich über KI rede, dann beziehe ich mich meistens auf diesen gesellschaftlichen Diskurs, was immer diese großen KI-Modelle sind. Sowas, was OpenAI oder Microsoft anbieten. Das eine große magische Modell trainiert im ganzen Internet, und das soll alle Probleme lösen. Und das ist das, was Europa auch versucht jetzt nachzubauen an vielen Stellen. Und das halte ich für zumindest mal wenig zielführend. Weil wir erstens sehen, dass diese Systeme nicht so gut sind, wie die Anbieter das behaupten. Und weil ich glaube, dass, wie wir hier in Europa operieren, anders gedacht ist. Also gerade wenn wir auf Deutschland gucken, die deutsche Wirtschaft, wir sind sehr stolz darauf, dass sie so über so einen Mittelstand und so kleine und mittlere Unternehmen strukturiert ist, die dann so die Hidden Champions irgendwo hier in Niedersachsen auf dem Land, die dann irgendwas können, bauen die beste Kartoffelerntemaschine der Welt. Die Firma kennt keiner, aber ist Weltmarktführer für irgendwas. Diese Unternehmen brauchen ja nicht irgendein riesen OpenAI-Ding. Was die halt brauchen, sind ganz, ganz konkrete Machine-Learning-Systeme, die Probleme lösen. Also wenn wir, Deutschland ist stark im Maschinenbau. Ja, wenn deutsche Unternehmen eine Maschine ausliefern, dann sollte die halt vorher sagen, dass sie bald kaputt gehen wird. Das ist eine Lösung, bei der man diese Machine-Learning-Verfahren extrem gut einsetzen kann. Da braucht man auch nicht hunderte von Data-Centern, um das zu machen. Da braucht man halt gute Daten, Kompetenz und Prozesswissen, und dann kann man so ein System aufbauen. Es erzeugt wahnsinnigen Mehrwert. Es macht die Produkte, die wir hier eh schon anbieten, besser, und es basiert auch auf einem Verständnis davon, dass eben die kleinen und mittleren Player, die wir hier haben, ihre Kompetenz auch selber ausgestalten können und sich nicht an irgendein Tech-Riesen binden, ob der jetzt in den USA, in China oder in Europa sitzt, ist am Ende egal. Und man kann eben auch Technologieentwicklung so strukturieren, dass sie das unterstützt. Dass eben diese einzelnen Player gute Lösungen anbieten können, die sie zum Beispiel auch testen können. OpenAI will alle Probleme der Welt lösen und kann keins davon richtig lösen. Wenn ich Maschinenbauer bin, der, keine Ahnung, Verpackungsmaschinen baut, dann kenne ich mich daran so aus, dass ich halt KI-Systeme, die bestimmte Probleme in diesem Feld lösen können, mit einer Seriosität anbieten, die kein anderer Markt anbieten kann. Und dann habe ich plötzlich einen wirtschaftlichen Case, dann habe ich auch einen Zugewinn an eben weniger Stillstandszeiten, ich habe weniger Verschwendung, ich habe da sogar einen Umweltschutzaspekt mit drin. Also dann zahlt das eigentlich auf ganz viele Aspekte ein, die uns wichtig sind. Aber man muss sich halt frei machen von diesem, wir müssen auch so große Dinge bauen, weil die lösen magisch unsere Probleme. Das ist eigentlich so ein kindlicher Gottglaube, der da irgendwie formuliert wird. Was wir eigentlich tun würden hier in Deutschland, dem Land der Dichter und Denker und auch Tüftler, wie ja immer so gesagt wird, ist zu sagen: "Wir bauen hier eh was, und jetzt nehmen wir diese Technik, die bestimmte Dinge kann, Muster erkennen, Muster generieren, und wenden die auf unseren Case hier an und bauen damit was Seriöses, was wir dann direkt im nächsten Jahr verkaufen können, wo wir nicht die nächsten zehn Jahre unendliche Mengen Geld versenken." Und ich halte das gerade auch aus so einer Ingenieurssicht für viel rationaler, das zu tun. Nicht zu hoffen, das eine magische neuronale Netzwerk löst die Probleme, sondern ich habe hier ein Problem, das kann ich konkret lösen. Das ist dann erledigt, und dann mache ich das nächste und dann das nächste und dann das nächste. Und ich glaube, dass das gut zu Europa passen würde.

Die Frage ist, bei aller Kritik, die man gegenüber diesem KI-System haben kann, die sind halt nun mal da, muss man die nicht trotzdem jetzt irgendwie in die Unis bringen, dass die Leute halt kompetent darin werden, die einzuschätzen, zu wissen, wo man sie einsetzen kann, wo nicht, wo Probleme entstehen können und so weiter. Klar muss man das. Man muss sich die Frage stellen: Was können diese Systeme? Das heißt, man braucht so ein ganz grundsätzliches Verständnis davon, was ist das eigentlich? Damit dieses magische Denken aufhört, dass man rafft, okay, das ist einfach nur ein Statistiksystem, was das nächste Wort vorhersagt. Okay, das ist vielleicht an bestimmten Stellen mal ganz witzig, aber wie nützlich ist das eigentlich? Aber man sollte halt nicht sich darauf reduzieren, daraus dann so, wir lernen jetzt alle, wie man promptet oder wir werden jetzt Prompt Engineers, was auch eine furchtbare Bezeichnung ist. Wir müssten jetzt alle verstehen, welche Accounts man sich wo klicken muss, damit man jetzt was damit generieren kann. Weil das zäumt wieder das Pferd von hinten auf. Wie kann ich denn jetzt irgendwelche Outputs erzeugen, die aussehen wie was Plausibles? Sondern nein, worüber wir reden müssen, ist: Wie funktioniert diese Technik, was kann das? Also, es sind Mustergenerierungs- oder Mustererkennungsmaschinen. Und dann muss man aber wieder einen Schritt zurück treten, die Finger von der Technik lassen. Mit welchen Problemen wollen wir uns denn jetzt beschäftigen? Natürlich kann man sich die Frage stellen: Was macht das mit Desinformation, wenn ...? Ich habe eine Mustergenerierungsmaschine, ich kann jedes Bild einfach so erzeugen. Was macht das? Dabei ist aber die Technik erstmal gar nicht so wichtig, sondern die Frage ist, okay, was macht das damit? Welche Formen, wie können wir Authentizität sicherstellen? Wie können wir sicherstellen, dass Leute noch Vertrauen in Institutionen haben können und all diese ganzen Geschichten?
Und häufig ist das auch gar nicht ein, weil wir eben diese Systeme nicht wegkriegen, häufig ist es dann halt eben ein, okay, wie kann eine Institution denn Vertrauen zum Beispiel zu ihren LeserInnen aufbauen, wenn man journalistisch ist? Oder wie kann eine Universität noch Vertrauen aufbauen, dass man da wirklich wahre Dinge lernt und nicht irgendetwas lernt? Und das sind plötzlich wieder gar nicht mehr technische Fragen. Und bei den meisten Fragen, die uns beim Thema KI irgendwie umtreiben, sind es eigentlich keine technischen Probleme. Es geht ganz selten um technische Probleme. Es geht eher vielleicht darum, okay, ihr habt dieses System, ihr braucht dafür so viel Strom und so viel Wasser und erzeugt so viel Elektroschrott. Was produziert ihr denn und ist es das wert? Ist das, was ihr produziert, so viel wert, wie ihr an Schaden an allen möglichen Dingen ausrichtet? Natürlich braucht man ein bisschen technisches Verständnis dafür, aber das ist Verständnis, was man Leuten in einer halben Stunde vermitteln kann. Das ist gut genug, um diese Form von Diskussionen zu führen. Und das ist die Diskussion, die wir brauchen. Und dafür ist eine Hochschule der richtige Ort, weil sie Menschen aus ganz unterschiedlichen Disziplinen zusammenbringt. Menschen auch aus unterschiedlichen Ländern, die dann wirklich drauf gucken können, was macht das eigentlich mit uns? Sind wir damit einverstanden? Und wie wollen wir diese Systeme, die da sind, zum Einsatz bringen? Und wie glauben wir, dass sie uns voranbringen in der Zukunft? Und dafür sind Hochschulen fast ein idealer Ort, weil man Dinge ausprobieren kann, weil Studierende Projekte durchführen können, sehen können, was macht das eigentlich? Also im Prinzip so eine Art Mini-Laboratorium für die Welt. Und wenn wir das irgendwie hinkriegen würden in Hochschulen, wäre doch für die gesamte Gesellschaft eine ganze Menge gewonnen.

Back to top