Impact of Science

„Open Data ist für die Wirtschaft ein Problem“

Yvonne Hofstetter
Yvonne Hofstetter (Foto: Heimo Aga)
©

Frau Hofstetter, hat Deutschland durch die Corona-Pandemie bei der Digitalisierung aufgeholt?
Wenn ich in der Lage bin, meine digitalen Geräte öfter, mehr und von zu Hause aus zu nutzen und mich übers Netz mit Menschen und Geräten zu verbinden, dann ist das natürlich auch Teil der Digitalisierung. Aber Digitalisierung ist eigentlich mehr. Dazu gehört das Sammeln, Auswerten und Interpretieren von Daten, also die Vermessung unseres Alltags und Lebens. Datenpannen beim Robert Koch-Institut und anderes zeigen, dass das Ganze auch nach einem Jahr nicht so einfach ist. Da gibt es viel Luft nach oben. 

25 Millionen Menschen in Deutschland nutzen aktuell die Corona-Warn-App. Sie haben die Entwicklung als Mitglied des Datenschutzbeirats der Telekom, die die Anwendung zusammen mit SAP realisiert hat, im letzten Jahr hautnah verfolgt. 
Die Deutsche Telekom ist in die Entwicklung, den Einsatz und den Support der App involviert. Das Unternehmen hat sich den Datenschutz groß auf die Fahnen geschrieben. In der App wird niemand getrackt, niemand getraced. Es werden keine Bewegungsprofile erstellt. 

Die App schützt so Bürgerrechte und die Einführung wurde im Vorfeld breit debattiert. Würden Sie sagen, so geht gelungene Technologieentwicklung in einer Demokratie?
Mittlerweile vertreten einige Ärzte und Politiker die Ansicht, dass es doch besser wäre, Bewegungsprofile zu erfassen und zu wissen, wer sich mit wem trifft. Dann könnten die Gesundheitsämter Menschen namentlich identifizieren und nachverfolgen. Speziell in Sachen Corona besteht der Wunsch nach mehr Überwachung. Wenn man tatsächlich eine App haben wollte, wie wir das aus autokratischen Staaten wie China oder Singapur kennen, dann müsste man eine solche App komplett neu aufbauen. Das ist gerade eine Riesendebatte.

Wir alle nutzen im Alltag bereits Anwendungen, die viele Daten über uns sammeln. Sie warnen vor einer wachsenden Umgebungsintelligenz, die darauf abzielt, unser Verhalten zu bewerten und zu lenken. Was genau meinen Sie damit? 
Mit Umgebungsintelligenz meine ich Dinge um uns herum, die mit künstlicher Intelligenz aufgeladen sind. Im engeren Sinne sind das künstliche neuronale Netze, die für Klassifizierung und Identifizierung eingesetzt werden. Beispielsweise in Übersetzungsprogrammen, wo ein neuronales Netz bestimmte Wörter erkennt und klassifiziert oder Sprachen identifiziert, um sie zu übersetzen. 

Ähnlich können Sie sich KI in der Suchmaschine von Google, in Ihrem smarten Fernseher, im Twitter-Feed oder Ihrer Smart-Home-Steuerung vorstellen. Immer mehr Objekte des täglichen Lebens werden vernetzt und erfassen Daten. Und diese Vernetzung bringt heute automatisch KI mit sich. Denn Vernetzung funktioniert nach der Gleichung: Ich überwache, ich erhebe Daten, ich speichere diese Daten und werte sie aus. Und Letzteres kann KI.

KI wertet Daten nicht nur aus, sondern tritt dann auch irgendwie in Aktion? 
Entscheidungen treffen oder unterstützen, das kann der größere Technologiebaukasten von Methoden und mathematischen Theorien. KI ist da nur ein einzelnes Werkzeug. Doch schon heute trifft KI für Sie Entscheidungen und Vorauswahlen. Das bedeutet bei den sozialen Medien beispielsweise, dass Sie tatsächlich nur den Feed sehen, der Sie interessiert. Es wird nicht mehr exploriert, es wird nichts außerhalb Ihres individuellen Interesses mehr angezeigt, und das macht natürlich etwas mit Ihrer Meinungsbildung. 

Die berüchtigten Filterblasen … 
Ja. In den sozialen Medien werden Sie bewusst bei Ihren Interessen gepackt, denn diesen Unternehmen geht es ja um das Geschäftsmodell der Werbung und damit – ganz klassisch – um Profit. 

Europa hat sich eine ethische KI auf die Fahnen geschrieben. Wie kann man die Auswirkungen solcher Anwendungen auf den Einzelnen und die Gesellschaft kontrollieren? 
In Sachen ethische KI gibt es unterschiedliche Ansätze. Ein Ansatz ist, zwischen der Kritikalität verschiedener KI-Anwendungen zu unterscheiden. Also im Blick auf das Maß potenziell schädlicher Auswirkungen. Manche KI-Anwendungen sind kritisch, weil sie beispielsweise in den sozialen Medien die Meinung beeinflussen und so das demokratische System untergraben. Dann gibt es aber auch KI, die nur mit Daten von Objekten – etwa Maschinendaten – hantiert und keine Daten von Menschen verarbeitet. Ich bin selbst Unternehmerin und wir entwickeln künstliche Intelligenz für Unternehmen, die ihre Fremdwährungsrisiken besser absichern wollen. So eine Anwendung wird dann nur in der Finanzabteilung eines Unternehmens eingesetzt. Bei einigen KIs muss man genauer hinschauen. Sind sie ethisch verantwortbar und mit geltendem Recht vereinbar?

Wir wissen inzwischen, dass KI-Anwendungen Menschen diskriminieren können …
… beispielsweise bei der Beurteilung von Straftätern und Rückfallquoten – in den USA wird dafür schon künstliche Intelligenz genutzt. Wenn eine KI dort sagt, 95 Prozent der Afroamerikaner werden rückfällig, muss man an Diskriminierung denken. Das Problem ist aber erkannt. Es ist bereits in den Rohdaten vorhanden, die eine KI verarbeitet. Jetzt wird daran geforscht, wie wir technologischen Rassismus verhindern können. Eventuell helfen synthetische Daten weiter. 

Yvonne Hofstetter
Yvonne Hofstetter (Foto: Heimo Aga)
©

Zur Person

Yvonne Hofstetter ist Mitgründerin und CEO des Münchener Fintech-Unternehmens 21 Strategies. Die 54-Jährige hat als Sachbuchautorin den Einfluss der Digitalisierung auf die freiheitliche Gesellschaft im Blick und engagiert sich in Beiräten von Telekom und diversen Hochschulinstituten. 2020 wurde die studierte Juristin zur Honorarprofessorin für Digitalisierung und Gesellschaft an der Hochschule Bonn-Rhein-Sieg (H-BRS) ernannt. 

„Ich habe immer zwei Hüte auf. Einen Technikhut und einen Juristenhut. Diese Kombination gibt es ganz selten. ”

Yvonne Hofstetter
Yvonne Hofstetter (Foto: Heimo Aga)
©
Yvonne Hofstetter

Sie sind seit letztem Sommer Ethikprofessorin für Digitalisierung und Gesellschaft an der Hochschule in Bonn. Was sind da Ihre Schwerpunkte?
Ich habe mich immer mit Digitalisierung im politischen und rechtlichen Kontext beschäftigt. Ich bin zwar am Zentrum für Ethik und Verantwortung, aber mein Fokus ist eher die Frage nach der rechtlichen Compliance von KI. Ethik ist die eine Sache. Recht ist eine andere. Mich interessiert, wie eine verbindliche rechtliche, aber auch technisch und wirtschaftlich sinnvolle Regulierung von KI aussehen kann. Bei der Gesetzgebung muss ich nach den Maßstäben der Gerechtigkeit agieren.

Gerechtigkeit ist keine ethische Kategorie?
Gerechtigkeit heißt, Lösungen zu finden, die Mehrheiten nicht ausschließen und trotzdem Minderheiten inkludieren. Speziell bei moralischen Fragen ist das nicht so. Meine Moral gilt nicht notwendigerweise für alle. Moral ist sehr individuell und gilt mehr als ein Gefühl als ein Produkt der Vernunft.

Im Übrigen spielen bei ganz vielen Gesetzen Ethik und Moral keine Rolle. Denken Sie etwa an Verwaltungsvorschriften. Bauvorschriften. Oder die Haftung für künstliche Intelligenz. Das könnte letztlich nichts als eine Versicherungsfrage sein. Wird es eine Gefährdungshaftung geben? Muss jeder, der KI nutzt oder baut, seinen Obolus in eine Haftpflichtversicherung geben? Dann würde, wenn eine KI einen Schaden verursacht, aus diesem Topf bezahlt. Das sind die Fragen, die sich im Recht stellen. 

Was treibt Sie an? 
Ich möchte mitwirken und mit Forschung dazu beitragen, den Umgang mit Daten in rechtlich vernünftige Formen zu gießen. Ich habe immer zwei Hüte auf. Einen Technikhut und einen Juristenhut. Diese Kombination gibt es ganz selten. Damit kann ich mich sehr gut einbringen, und zwar sowohl in der Forschung als auch in der Beratung von Politik. 
Aber mir geht es auch um die jungen Menschen. Darum, sie zu sensibilisieren, dass man mit Technologien wie der KI mehr machen kann, als nur Geld zu verdienen. 

„Unsere Forschung zu KI ist exzellent. Aber wir bringen die Ergebnisse nicht auf die Straße. ”

Yvonne Hofstetter
Yvonne Hofstetter (Foto: Heimo Aga)
©
Yvonne Hofstetter
CEO von „21 Strategies“

Die Entwicklung neuer KI-Anwendungen braucht den Zugang zu Daten. Wenn künftig mehr Behörden, die Wissenschaft und die Wirtschaft ihre Daten mit anderen teilen, könnte ein riesiger Datenpool entstehen. Wie offen und kollaborativ arbeiten wir heute schon? Wirkt Corona hier als Beschleuniger? 
In der Wissenschaft funktioniert das gut und war auch vor Corona schon auf gutem Weg. Unsere Forschung zu Digitalisierung und KI war und ist exzellent. Da sind wir weltweit ganz vorne mit dabei. Das Problem ist eher, dass wir die Ergebnisse aus der Wissenschaft dann nicht auf die Straße, nicht in den Markt bringen. 

Open Data, also das Teilen und Nutzen gemeinsamer Datenpools, ist für die Wirtschaft natürlich ein Problem. Nehmen Sie etwa multinationale Unternehmen wie BMW oder Bayer. Sie werden ihre Daten, die ihr Unternehmen erzeugt, nicht öffentlich zur Verfügung stellen, damit andere mit ihnen etwas entwickeln können. Das sind strategisch wichtige Daten. Die wird kein Unternehmen rausgeben. In diesem kommerziellen Umfeld ist es deshalb schwierig, dieses Konzept von Open Data umzusetzen. Meine Firma arbeitet mit Dax-Unternehmen und bei jedem Unternehmen unterschreiben wir eine Geheimhaltungsvereinbarung, weil man uns Daten aus der Finanzabteilung zukommen lässt. 

Digitalisierung ist immer mit der Hoffnung auf jede Menge digitale Start-ups verbunden. Warum ist Deutschland da immer noch im Hintertreffen?
Dafür gibt es unterschiedliche Gründe. Der Unternehmensstart ist immer noch ein großes Risiko. Die Kapitalmarktstruktur ist in Europa im Vergleich zu den USA limitierter. Man geht ja immer noch davon aus, dass 80 Prozent der Gründer es nicht schaffen. Auch jetzt in der Pandemie merken wir, dass viele Start-ups, auch digitale Start-ups, richtig Probleme haben. Unternehmer in Deutschland sind zudem nicht genug wertgeschätzt. Das zeigt auch die Corona-Krise überdeutlich, in der sich der Konflikt zwischen Angestellten, die sich auf Kurzarbeitergeld verlassen können, und Unternehmern, die sich durch die Lockdowns in dramatischer finanzieller Lage befinden, weiter verschärfen wird.

Scheitert es auch an der Motivation?
Wir haben in Deutschland keine Risikokultur. Viele junge Menschen möchten sichere Jobs. Wer ein Start-up gründet, muss die Work-Life-Balance auch mal hintanstellen. Ich habe das selbst mehrfach erfahren. Ein Start-up ist richtig harte Arbeit. Aber ich kann nur jeden wirklich ermutigen, es zu tun, weil es einfach schön und spannend ist. Es macht Spaß, wenn man sein Schicksal selbst in die Hand nimmt. Dazu braucht es aber auch Passion. 

Screenshot: KI-Campus
Screenshot: KI-Campus
©

Mehr zum Thema KI

Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie der Zukunft. Der KI-Campus will KI-Kompetenzen in der Breite fördern und mittelfristig auch dem akuten Fachkräftemangel in diesem Sektor begegnen. Kurz gesagt: Es geht darum, mehr Menschen für das Thema KI zu begeistern und für ein zukunftsfähiges Berufsfeld zu gewinnen. Mit Förderung durch das Bundesministerium für Bildung und Forschung (BMBF) bauen der Stifterverband, das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das Hasso-Plattner-Institut (HPI), NEOCOSMO und das mmb Institut gemeinsam eine KI-Lernplattform auf. 

 

Zum KI-Campus
Tauchen Sie tiefer in unsere Insights-Themen ein.
Zu den Insights