# taz.de -- Risiken von KI: „Alles geht zu schnell“
       
       > Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
       > Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
       
 (IMG) Bild: Künstliche Intelligenz wirft viele Fragen auf
       
       wochentaz: Frau Simon, was unterscheidet die Maschine aus philosophischer
       Sicht vom Menschen? 
       
       Judith Simon: Das ist eine Frage, die viele Bücher füllen kann und auch
       gefüllt hat. Vielleicht fangen wir damit an, dass der Mensch ein
       Bewusstsein hat und Maschinen nicht. Maschinen haben auch kein Verständnis
       von Sprache. Sie können es nur simulieren, indem sie Muster in der Sprache
       erkennen und reproduzieren. Auch ChatGPT ist also im Grunde nur Statistik.
       
       Sie sind Mitglied des Deutschen Ethikrats und haben kürzlich eine
       [1][Stellungnahme] zum Thema „Herausforderungen durch Künstliche
       Intelligenz“ veröffentlicht. Womit haben Sie sich da befasst? 
       
       Wir haben uns den Einsatz von KI in vier Anwendungsbereichen angeschaut:
       Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung.
       Eine Leitfrage dabei war: Wessen Handlungsmöglichkeiten werden durch die
       Nutzung von KI erweitert oder vermindert?
       
       Welche Potenziale und Chancen haben Sie erkannt? 
       
       KI-gestützte Systeme sind vor allem gut darin, Muster in Daten zu erkennen.
       Dies kann in ganz unterschiedlichen Bereichen verwendet werden, zum
       Beispiel in der Krebsdiagnostik bei der Analyse von Gewebeproben. In den
       sozialen Medien kommt KI zum Einsatz, um Inhalte auszuwählen oder zu
       sortieren. [2][In der Bildung] kann KI personalisiertes Lernen
       unterstützen. KI wird auch im Sozial- und Polizeiwesen verwendet, um
       Entscheidungen zu unterstützen, etwa um die Gefährdung von Kindern zu
       bewerten, Betrug aufzudecken oder Vorhersagen über zukünftige Einbrüche zu
       machen. Im Idealfall hilft die KI, effizienter zu arbeiten, Fehler zu
       verringern und bessere Entscheidungen zu treffen.
       
       Und wo ist der Haken? 
       
       Zu den generellen Problemen von KI-Systemen zählt deren mangelnde
       Transparenz und Nachvollziehbarkeit. Ein zweites verbreitetes Problem ist
       Diskriminierung durch sogenannte systemische Verzerrungen. Ursache sind
       oftmals die Daten, welche entweder nicht repräsentativ sind oder
       strukturelle Ungleichheiten unserer Gesellschaft widerspiegeln. Die KI
       lernt diese Strukturen und reproduziert sie. Auch der Schutz der
       Privatsphäre ist ein wichtiges Thema. Wenn Entscheidungen an Software
       delegiert werden, stellen sich zudem Fragen rund um Autonomie und
       Verantwortung. Und letztlich funktionieren diese Systeme nicht von selbst,
       sondern hängen davon ab, dass Menschen Daten für sie aufbereiten. Diese
       arbeiten oft unter prekären Arbeitsbedingungen im Globalen Süden.
       
       Wie kann diesen Problemen begegnet werden? 
       
       Gremien wie die Enquete-Kommission des Bundestags für KI oder die
       Datenethikkommission der Bundesregierung haben bereits umfassende
       Empfehlungen an die Politik gegeben. Beide haben einen Ansatz
       vorgeschlagen, um im Entwicklungsprozess von KI-Systemen sowohl die Risiken
       als auch Möglichkeiten der Kontrolle und Regulierung mitzudenken. Das
       spiegelt sich auch auf EU-Ebene im sogenannten KI-Act wider. Dieser soll
       gemeinsam mit anderen Verordnungen, wie etwa dem Digital Services Act,
       dafür sorgen, dass solche Systeme nicht mit massiven Nebenwirkungen auf den
       Markt kommen.
       
       Im Fall der sprachbasierten KI ChatGPT wurde jüngst vor eben solchen
       Nebenwirkungen gewarnt. In einem [3][offenen Brief], unterzeichnet von über
       1.000 Tech-Expert:innen, darunter Unternehmer wie Elon Musk und
       Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich
       die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den
       Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand –
       nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig
       kontrollieren kann“. 
       
       Die Entwicklungen haben zuletzt viele etwas überrollt – mich auch. Das
       Besondere an ChatGPT ist, dass es zum einen mächtig, und zum anderen so
       einfach nutzbar und frei zugänglich ist. So sind die Nutzerzahlen innerhalb
       kürzester Zeit durch die Decke gegangen. Und dann wurde GPT4
       veröffentlicht, das Text mit Bildeingabe kombiniert. Die angekündigte
       Anbindung an das Internet ist der nächste große Schritt, welcher neue
       Risiken für eine rasante, massenhafte Verbreitung von Fehlinformationen mit
       sich bringt.
       
       Viele haben auch Angst, ihren Arbeitsplatz zu verlieren. 
       
       Ja, davon werden sicher einige Branchen betroffen sein. Besonders jene, in
       denen mit standardisierten Texten gearbeitet wird, die nach klaren Mustern
       aufgebaut sind. So braucht man in naher Zukunft vielleicht nur noch ein
       paar Journalist:innen, um die von der sprachbasierten KI produzierten Texte
       zu überprüfen. Das Gleiche gilt für Übersetzer:innen oder
       Grafikdesigner:innen wegen bildgenerierenden Anwendungen wie Dall-E.
       
       Ist diese Entwicklung noch aufzuhalten? 
       
       Zumindest können wir die technologischen Entwicklungen und ökonomischen
       Rahmenbedingungen beeinflussen. Ich bitte meine Informatik-Studierenden
       häufig, sich vorzustellen, die Technologie, die sie entwickeln, würde von
       mehreren Millionen oder gar Milliarden Menschen verwendet werden. Dann wird
       ihnen oft bewusst, dass die Folgen ihrer Designentscheidungen vielleicht
       viel massiver sein könnten, als sie sich das zunächst ausgemalt hatten.
       
       Die Unterzeichner:innen des offenen Briefes fordern ein halbjähriges
       Moratorium für die Entwicklung von KI-Systemen, die leistungsfähiger sind
       als die Sprachanwendung GPT4 der Firma OpenAI. Sie wollen Zeit gewinnen, um
       solche Gedankenexperimente durchzuführen. Ist das realistisch? 
       
       Nein, ich denke nicht. Der Wettbewerbsdruck zwischen den Unternehmen dürfte
       zu groß sein.
       
       Teilen Sie denn die Forderung? 
       
       Ich teile bestimmte Punkte des Briefes. Zum Beispiel den Eindruck, dass
       gerade alles zu schnell geht und dass es sinnvoll wäre, sich mit den
       Auswirkungen von sogenannten High-Risk-Technologien – zu denen ich ChatGPT
       zählen würde – zu beschäftigen, und zwar bevor sie frei zugänglich gemacht
       werden. Auch werden einige Vorschläge zur Überprüfbarkeit und Kontrolle von
       KI-Systemen gemacht, zu deren Sicherheit, Robustheit usw. Die sind
       sinnvoll, wurden aber auch schon von vielen anderen zuvor vorgeschlagen.
       
       Und was teilen Sie nicht? 
       
       Zum einen den großen Fokus auf die langfristigen Risiken durch eine
       sogenannte „generelle künstliche Intelligenz“ (artificial general
       intelligence), also eine KI, die menschliche Intelligenz perfekt simuliert,
       sie in allen Bereichen übertrifft oder gar über Bewusstsein oder ähnliches
       verfügt. Kritiker:innen des Briefes haben zu Recht darauf hingewiesen,
       dass so reale Probleme bereits aktuell verwendeter KI-Systeme [4][aus dem
       Blick verloren werden].
       
       Wer trägt die Verantwortung dafür, Schäden durch KI-Systeme abzuwenden oder
       zu begleichen? 
       
       Es gibt eine einfache Daumenregel: Je mehr Macht ich habe, umso mehr
       Verantwortung trage ich. Die größte Verantwortung tragen die Unternehmer
       selbst, die Systeme entwickeln und auf den Markt werfen. Darüber hinaus ist
       die Politik in der Pflicht, einen gesetzgeberischen Rahmen zu schaffen, der
       Risiken minimiert und Chancen nutzbar macht. Aber auch die Nutzer:innen
       tragen die Verantwortung zu überlegen, wozu sie diese Tools verwenden und
       wozu nicht. Ob sie also ChatGPT verwenden, um zu lernen oder um zu betrügen
       und zu manipulieren.
       
       Italien und Kanada haben im Fall von ChatGPT wegen Verstößen gegen den
       Datenschutz rechtliche Schritte eingeleitet, Italien ließ die Anwendung
       sogar vorerst sperren. In Australien will ein Bürgermeister wegen
       Verleumdung gegen die Entwickler vorgehen. Sind Verbote die Lösung? 
       
       Verbote sind sicher immer nur das letzte Mittel. Ich bin keine Juristin,
       aber es scheint hier auch eher so zu sein, dass es keinen wirklich
       geeigneten Rechtsrahmen gibt, mit dem man den Herausforderungen von ChatGPT
       begegnen kann. Und da hat man eben existierende Datenschutzgesetze
       verwendet. Nun ist ChatGPT allerdings bereits in der Welt und die Frage
       ist, wie man es wieder eingefangen kriegt.
       
       Haben Sie eine Idee? 
       
       Einerseits werden wir lernen müssen, damit verantwortungsbewusst umzugehen.
       Das ist nicht einfach, weil ChatGPT so leicht zu verwenden und zu
       missbrauchen ist. Es stellt sich die Frage, welche Möglichkeiten der
       geltende Rechtsrahmen bietet, etwa das Datenschutz- oder Urheberrecht, um
       bestimmte Probleme einzuhegen. Und ob in den neuen Verordnungen auf
       EU-Ebene solche Technologien bereits ausreichend berücksichtigt wurden oder
       ob Anpassungen notwendig sind.
       
       Und die Unternehmer, wie erreicht man die? 
       
       Ganz ehrlich: Ich glaube nicht, dass man Unternehmer „erreichen“ muss.
       Jeder Mensch ist verantwortlich für die Entscheidungen, die er trifft – und
       deren Folgen. Und wenn ich Entscheidungen treffe, die hohe Auswirkungen für
       viele Menschen haben können, dann muss ich eben auch entsprechend
       verantwortungsbewusst handeln. Dass das im Falle von ChatGPT nicht passiert
       ist, fällt also allein in die Verantwortung der Unternehmer selbst.
       
       8 Apr 2023
       
       ## LINKS
       
 (DIR) [1] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
 (DIR) [2] /ChatGPT-loest-Bildungskrise-aus/!5920652
 (DIR) [3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
 (DIR) [4] /Moratorium-ueber-Umgang-mit-KI/!5925502
       
       ## AUTOREN
       
 (DIR) Nora Belghaus
       
       ## TAGS
       
 (DIR) IG
 (DIR) Elon Musk
 (DIR) Roboter
 (DIR) GNS
 (DIR) Ethik
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Transnationale Konzerne
 (DIR) Internet
 (DIR) Bildung
 (DIR) Regulierung
 (DIR) Lesestück Recherche und Reportage
 (DIR) Roboter
 (DIR) Technischer Fortschritt
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Neue EU-Regeln für Tech-Giganten: Transparenz für alle
       
       Google, Meta und Co. sollen schärfer gegen illegale Inhalte vorgehen und
       transparenter arbeiten. Was das heißt? Antworten auf die wichtigsten
       Fragen.
       
 (DIR) EU-Plan in der Kritik: Zweifel an Chatkontrolle wachsen
       
       Die EU-Kommission will unter anderem E-Mails und Messenger-Nachrichten
       durchleuchten lassen. Doch das Vorhaben gerät zunehmend unter Druck.
       
 (DIR) Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“
       
       Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
       Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert
       Lepenies.
       
 (DIR) Umsetzung des Digitale-Dienste-Gesetzes: Neue Algorithmenprüfer
       
       Die EU-Kommission will mit einem Institut untersuchen, wie die großen
       IT-Konzerne technisch arbeiten. Das ist eine wichtige Grundlage für
       Regulierung.
       
 (DIR) Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
       
       Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
       zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
       
 (DIR) KI und Anthropomorphismus: Mensch in der Maschine?
       
       Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
       wir zu menschlichen Metaphern. Aber das birgt Probleme.
       
 (DIR) KI in Wissenschaft und Journalismus: Mensch und Maschine
       
       Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die
       Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI
       nicht.