# taz.de -- Ethik für Künstliche Intelligenz: Wo Schwaben Kalifornien sein will
       
       > Das Tübinger Cyber Valley will transparent und fair künstliche
       > Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon
       > und BMW.
       
 (IMG) Bild: Das Modell eines Roboterarms im Labor des Max-Planck-Instituts für intelligente Systeme in Tübingen
       
       Der Ort, an dem die Zukunft entstehen soll, sieht ziemlich trist aus. An
       einem regnerischen Morgen kurz vor Weihnachten versprüht das Zentrum der
       europäischen Forschung für [1][künstliche Intelligenz (KI)] nicht den
       Innovationsgeist, den man sich hier verspricht. Wer bei dem Namen Cyber
       Valley an riesige Glasgebäude und Tesla-Fuhrparks denkt, der wird im
       Tübinger Stadtteil Waldhäuser-Ost enttäuscht. Grimmige Parkplatzwächter
       mustern vorbeifahrende E-Smarts, Baukräne flankieren die leeren Straßen.
       
       Hier, auf einer ehemaligen Viehweide in der schwäbischen Stadt mit ihren
       90.000 Einwohnern, will Europa in der KI-Forschung schnellstmöglich zu den
       USA und China aufschließen. Und eine Sache grundlegend anders machen: Im
       Ländle soll möglichst transparent, im Diskurs mit der Gesellschaft und mit
       Weitsicht für ethische Konflikte geforscht werden. Aber wie kriegt man
       gesellschaftliche Werte und Normen in eine Maschine? Ist dieser Anspruch in
       einem Feld, in dem es hochkompetitiv zugeht und kaum
       Sozialwissenschaftler:innen arbeiten, überhaupt realistisch?
       
       Gegründet wurde das selbsternannte Ökosystem Cyber Valley vor etwa sechs
       Jahren vom Land Baden-Württemberg, zusammen mit den Universitäten Tübingen
       und Stuttgart sowie der Max-Planck-Gesellschaft. Mit an Bord waren von
       Beginn an auch sieben Konzerne, darunter Amazon, BMW und Bosch.
       
       Über 1.000 Forschende arbeiten an den beiden Standorten. Dabei soll es
       nicht bleiben: Die Stiftung des SAP-Gründers Hans-Werner Hector investiert
       100 Millionen in ein weiteres KI-Labor, [2][die schwarz-grüne
       Landesregierung] schießt noch 180 Millionen Euro in die Initiative. Danyal
       Bayaz, baden-württembergischer Finanzminister der Grünen, sagt: „Wir wollen
       Quellen künftigen Wohlstands erschließen.“ Das Land investiere, „damit
       Baden-Württemberg das Kalifornien Europas wird.“
       
       ## Schwarzwald-Retreat und Yoga auf dem Dach
       
       Im Tübinger Max-Planck-Institut für Intelligente Systeme kommt bereits die
       Tech-Start-Up-Stimmung auf, von der im [3][Silicon Valley] so gerne
       gesprochen wird. Auf Glaswänden in den Küchenecken stehen handgeschriebene
       Formeln. Im Aufzug hängt die Einladung zu einem mehrtägigen Retreat im
       Schwarzwald, und auf der Dachterrasse mit Panoramablick auf die schwäbische
       Alb kann man sich eine Yogamatte vom Ständer greifen.
       
       Ein paar Stockwerke tiefer sitzt Wieland Brendel, Fleecejacke,
       Dreitagebart, auf einem Barhocker und nippt an einem Espresso. Die Wörter
       schießen nur so aus dem 36-Jährigen, der besonders herzlich über makabre
       Witze lacht. Brendel leitet eine Forschungsgruppe, die Maschinen
       menschliches Sehen beibringen will. Eines seiner Projekte wurde dieses Jahr
       auf der [4][Klimakonferenz in Ägypten] vorgestellt: Ein vollautomatischer
       Roboter, der sich in unbekannter Umgebung bewegen, Äpfel pflücken oder
       Unkraut jäten kann. Was hat das mit Ethik und Moral zu tun? „Ich kann den
       Roboter als persönlichen Gärtner halten, aber natürlich kann da auch jemand
       ein Gewehr draufpacken“, sagt Brendel. Ob und wie seine Ergebnisse eines
       Tages zweckentfremdet werden, könne er als Forscher zum jetzigen Zeitpunkt
       kaum beeinflussen. KI und Machine Learning sind für Brendel eine
       Basistechnologie, ähnlich wie ein Motor: „Damit kann ein Krankenwagen
       genauso fahren wie ein Panzer.“ Die Folgen solch grundlegender Forschung in
       zehn oder zwanzig Jahren könne man heute noch nicht absehen, sagt er.
       
       Um die Forschenden im Cyber Valley anzuregen, sich mit den
       gesellschaftlichen Folgen ihrer Arbeit auseinanderzusetzen, wurde vor drei
       Jahren extra ein Gremium geschaffen: Das Public Advisory Board, einberufen
       vom baden-württembergischen Wissenschaftsministerium. Der Beirat bewertet
       die eingereichten Forschungsanträge.
       
       ## „Wir sind keine Forschungspolizei“
       
       Bevor die Anträge genehmigt werden, landen sie im Postfach von Regina
       Ammicht Quinn. Die Ethik-Professorin der Uni Tübingen ist Sprecherin des
       neunköpfigen Gremiums. Gleich zu Beginn des Videogesprächs stellt die
       65-Jährige klar: „Wir sind keine Forschungspolizei.“ In dem ehrenamtlichen
       Beirat sitzen Ethiker:innen, ein Lehramtsstudent, eine Tech-Aktivistin und
       eine Grünen-Gemeinderätin aus Tübingen. Fast 60 Anträge haben sie in drei
       Jahren gelesen und in den meisten Fällen bei den Forschenden nachgehakt: In
       welchem Feld sollte die Forschung am besten angewendet werden? Wo auf
       keinen Fall?
       
       Unter den 21 finanzierten Projekten finden sich ein intelligenter
       Lernassistent für Schüler:innen oder künstliche Organe, die Berührungen
       spüren können und Mediziner:innen in der Ausbildung helfen sollen.
       Welche Anträge abgelehnt wurden oder zu großen Bedenken im Ethik-Beirat
       führten, will das Cyber Valley aber nicht sagen.
       
       Interessant ist ein anderes Projekt. Hier hatte der Ethik-Beirat nach
       taz-Informationen Sorgen – und dennoch wurde es gefördert. Denn die finale
       Entscheidung über Fördergelder liegt beim Fund-Board des Cyber Valleys.
       Jeweils sechs Vertreter:innen aus Wissenschaft und Industrie sitzen
       darin. Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine
       rein beratende Funktion. In dem Projekt ging es um autonome Drohnen, die
       Bewegungsmuster von Wildtieren in der Natur erfassen. Der Ethik-Beirat
       äußerte Bedenken, weil mit der Technik theoretisch auch Menschen aus der
       Luft präzise und automatisiert überwacht werden könnten.
       
       Ist der Ethik-Beirat nicht mehr als ein nettes Aushängeschild? „Unsere
       Wirkung auf das gesamte Ökosystem war bisher schwach“, sagt Ammicht Quinn.
       Von Anfang an habe die Öffentlichkeit den Einfluss des Ethik-Beirats
       überschätzt. Im KI-Bereich würden extrem kluge junge Leute arbeiten, die
       auch politisch interessiert seien. „Aber oft ist ihnen in der alltäglichen
       Arbeit nicht wirklich klar, dass ihre eigene Forschung auch politisch ist
       und ethische Fragen aufwirft“, sagt Ammicht Quinn.
       
       ## Nicht alle Tübinger:innen wollten das Cyber Valley
       
       Viele Tübinger:innen sind sich dieses Zusammenhangs offenbar bewusst.
       Kundgebungen wurden abgehalten, ein Hörsaal besetzt, Diskussionsrunden
       veranstaltet. Nicht alle freuten sich auf das Cyber Valley. Ammicht Quinn
       sagt, die anfänglichen Proteste hätten zur Bildung des Ethik-Beirats
       beigetragen.
       
       Mehrere Jahre protestierte das von Studierenden gegründete [5][Bündnis
       #NoCyberValley] gegen die Initiative, allen voran gegen die Ansiedlung von
       Amazon in Tübingen. Sie befürchteten nicht nur eine Explosion der Mieten,
       sondern sahen auch die Unabhängigkeit der Forschung in Gefahr. Ein Beispiel
       nannten die Gegner:innen immer wieder: Vier Jahre lang arbeitete
       Matthias Bethge, Neurowissenschaftler am KI-Zentrum der Uni im Cyber
       Valley, an einem Projekt, das von der Forschungsbehörde IARPA der
       US-Geheimdienste in Auftrag gegeben wurde. Bethge forschte an
       neurowissenschaftlichen Modellen, die mit Hilfe von Algorithmen die
       Funktionsweise des Gehirns darstellen.
       
       Ein Großteil der damaligen Kritik richtete sich gegen ein Forschungszentrum
       von Amazon, das mittlerweile fertig gebaut wurde. Es steht in unmittelbarer
       Nachbarschaft des Cyber Valleys. Praktisch ist das insbesondere für einen
       Mann: Max-Planck-Direktor Bernhard Schölkopf, ein Star im Cyber Valley. In
       unter fünf Minuten kann er von seinem Arbeitsplatz zum Amazon-Gebäude
       spazieren, sein zweiter Arbeitsplatz. Seit 2017 forscht Schölkopf dort
       ebenfalls an künstlicher Intelligenz. Gleiches galt bis 2021 auch für
       Michael Black, der ebenfalls zu den renommiertesten
       Wissenschaftler:innen im Cyber Valley zählt. Das weltweite Programm
       von Amazon richtet sich explizit an akademische Führungskräfte und soll
       „die Zusammenarbeit zwischen akademischer und industrieller Forschung
       fördern“, schreibt der Konzern.
       
       Wegen solcher Verbindungen sahen einige Tübinger:innen die
       Wissenschaftsfreiheit in Gefahr. Dabei sind Drittmittel aus Industrie und
       Wirtschaft in der deutschen Forschungslandschaft nichts Ungewöhnliches. Das
       Protestbündnis gegen das Cyber Valley befürchtet trotzdem, dass die
       Unternehmen Einfluss auf die wissenschaftliche Arbeit nähmen und einen
       exklusiven Zugang zu den Ergebnissen hätten. Im Cyber Valley wird das
       konsequent verneint: Alle Resultate der Forschung, die mit öffentlichen
       Mitteln finanziert wurde, würden auch öffentlich publiziert. Die
       Kooperationsverträge zwischen den sieben Geldgebern aus der Industrie und
       der Forschungsinitiative hingegen bleiben geheim.
       
       Nach Amazon will nun Bosch ein eigenes Forschungszentrum in Tübingen bauen.
       Der Technikkonzern finanziert, genauso wie Mercedes-Benz, bereits einen
       Lehrstuhl im Cyber Valley.
       
       Keine 100 Meter entfernt vom goldbraunen Amazon-Neubau sitzt Philipp Hennig
       in seinem Büro im KI-Zentrum der Uni Tübingen. Der 42-Jährige hat eine
       ruhige Stimme und ist geübt darin, komplexe Sachverhalte für Fachfremde zu
       übersetzen. Er ist Professor für Methoden des maschinellen Lernens und hat
       die Proteste gegen das Cyber Valley vor drei Jahren unmittelbar zu spüren
       bekommen. Drei Wochen lang besetzten Studierende den Hörsaal, in dem Hennig
       normalerweise in seinen Vorlesungen erklärt, wie Algorithmen so trainiert
       werden können, dass sie Fehler in ihren Entscheidungen besser erkennen.
       Hennig wurde zu einer Figur, die das Cyber Valley auf Podiumsdiskussionen
       beharrlich gegen Kritik verteidigt hat.
       
       ## Forschung mit Forschung kontrollieren
       
       Nicht nur wegen der anfänglichen Proteste ist Hennig überzeugt, dass die
       Sensibilität für ethische Fragen im Cyber Valley ausgeprägter sei als an
       anderen Standorten. Ein Beleg dafür sei, dass sich immer mehr Institutionen
       in Tübingen mit KI-Ethik beschäftigten. An der Uni gibt es eine
       Arbeitsgruppe Ethik und Philosophie der KI, und die Volkswagenstiftung
       fördert ein neues Zentrum zur Analyse der gesellschaftlichen KI-Debatte. Am
       Max-Planck-Institut für Intelligente Systeme erforscht eine Gruppe, wie
       Algorithmen diskriminierungsfreie Entscheidungen treffen können. Und mit
       Moritz Hardt von der Universität Berkeley in Kalifornien wurde Anfang 2022
       ein Forscher angestellt, der Informatik als Sozialwissenschaft bezeichnet.
       
       Hennig selbst hat ein Seminar zu algorithmischer Fairness gegeben und
       spricht in seiner Vorlesung über gesellschaftliche Verantwortung. Was
       bedeutet es für einen Algorithmus, fair zu sein? Als Beispiel nennt er die
       Vergabe eines Kredits. Man könne etwa verlangen, dass die Entscheidungen
       des Algorithmus unabhängig vom Geschlecht der Kreditnehmer:innen sein
       sollen. Oder, dass der Algorithmus für Männer und Frauen gleich zuverlässig
       sei, also gleich häufig Fehler macht. Es sei aber mathematisch bewiesen,
       dass beides gleichzeitig nicht möglich ist. Solche Fragen gehören laut
       Hennig inzwischen zu den Inhalten der Grundvorlesungen in KI.
       
       Noch mehr Raum für Diskussionen solcher Probleme soll es im deutschlandweit
       ersten Masterstudiengang für Machine Learning geben. Neue Seminare zu den
       sozialen Folgen von immer mehr intelligenten Maschinen sind geplant. „Wir
       sind hier so etwas wie die letzte Station außerhalb der Industrie für die
       Leute, die später dort arbeiten“, sagt Hennig. Die Studierenden sollen für
       die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem
       Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten.
       
       9 Jan 2023
       
       ## LINKS
       
 (DIR) [1] /Kuenstliche-Intelligenz/!5880554
 (DIR) [2] /Winfried-Kretschmann-ueber-2022/!5901542
 (DIR) [3] /Stellenstreichungen-im-Silicon-Valley/!5892248
 (DIR) [4] /Reaktionen-auf-COP27/!5893633
 (DIR) [5] https://nocybervalley.de/?page_id=26
       
       ## AUTOREN
       
 (DIR) Aaron Wörz
       
       ## TAGS
       
 (DIR) Zukunft
 (DIR) GNS
 (DIR) wochentaz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Forschungsförderung
 (DIR) Bildungschancen
 (DIR) Datenschutz
 (DIR) IG
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter
       
       Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf
       die Schulen zu? In den Ministerien ist man erstaunlich gelassen.
       
 (DIR) Foto-App „Lensa“: Nicht so schön, wie es scheint
       
       Die Fotobearbeitungs-App Lensa kommt ganz unschuldig daher. Doch sie macht
       immer wiederkehrende schwere Fehler im Maschinenlernen sichtbar.
       
 (DIR) Kolumne einer künstlichen Intelligenz: Wie schreibt eine Robo-Autor*in?
       
       Die taz veröffentlicht die erste Kolumne einer nicht-menschlichen Autor*in.
       Wie funktioniert das? Die wichtigsten Fragen zur künstlichen Intelligenz.