# taz.de -- Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“
       
       > Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang
       > Schulz spricht über Chancen, Risiken und die Bewusstseinsfrage.
       
 (IMG) Bild: Schafft KI wenigstens die Bürozellen ab? Das wäre ein Fortschritt
       
       taz: Herr Schulz, der Textgenerator ChatGPT hatte nur fünf Tage nach seinem
       Start eine Million Nutzer:innen – Facebook oder Instagram haben für
       solche Zahlen Monate gebraucht. Vergangene Woche hat nun Google mit seinem
       KI-Bot Bard nachgelegt. Ist gerade tatsächlich der „[1][iPhone-Moment der
       Künstlichen Intelligenz]“, wie manche Beobachter:innen meinen? 
       
       Wolfgang Schulz: Es hat auf alle Fälle einen extremen Entwicklungssprung
       gegeben – und der wird jetzt gerade offensichtlich. Insofern ist das
       tatsächlich ein wichtiger Moment – auch, weil wir uns als Gesellschaft erst
       mal bewusst werden müssen, was da eigentlich passiert. Ob es tatsächlich
       ein iPhone-Moment ist, hängt davon ab, wie sich die Technologie
       weiterentwickelt. Und zwar sowohl im Hinblick auf Geschäftsmodelle als auch
       auf den konkreten Nutzen in den unterschiedlichen Anwendungsfeldern.
       
       Wenn Sie sagen, die Gesellschaft muss sich bewusst werden, was da passiert:
       Was passiert denn da gerade? 
       
       Positiv betrachtet: Wir sehen gerade das unglaubliche Potenzial von
       Automatisierungen, viel stärker noch, als wir das bisher erlebt haben. Dass
       also Maschinen Dinge übernehmen, die vorher durch Menschen gemacht werden
       mussten. Gleichzeitig werden aber auch die Risiken sichtbar: Die
       Einfachheit, mit der so ein Textgenerator Lügen erzeugt, die ohne Kenntnis
       des Themas oder weitere Recherche nicht zu bemerken sind. Und die dann
       weiterverbreitet werden können. Der Missbrauch dieser Technologien, die
       Desinformation, das wird uns noch sehr beschäftigen. Wir befinden uns also
       jetzt in der Situation, in der wir überlegen müssen: In welche sozialen
       Praktiken, in welche Kulturtechniken binden wir diese neue Technologie ein?
       Wo brauchen wir Regulierung? Und welche?
       
       Welche brauchen wir denn? 
       
       Das Wichtigste ist Transparenz. Wenn eine KI am Erstellen eines Textes
       beteiligt war, ganz egal welcher Art, dann muss das ersichtlich sein.
       
       Das dürfte in der Praxis kaum durchsetzbar sein. 
       
       Es gibt bereits technische Entwicklungen, die mit einer gewissen
       Wahrscheinlichkeit sagen können, ob ein Text durch eine KI erstellt wurde.
       Aber klar, das kann natürlich ein Katz-und-Maus-Spiel werden. Es gibt auch
       schon Menschen, die der KI den Auftrag erteilen, einen Text zu schreiben,
       der nicht als KI-Text identifiziert wird. Aber die schwierige
       Durchsetzbarkeit darf nicht davon ablenken, dass das Interesse daran zu
       wissen, ob das, was uns gegenübertritt, ein menschlicher Kommunikator oder
       ein menschliches Produkt ist oder nicht, bleibt.
       
       Microsoft will ChatGPT in seine Suchmaschine einbauen und setzt Google mit
       seinem Suchmaschinenmonopol unter Druck. Nun [2][zieht Google mit Bard
       nach]. Was bedeutet dieses Wettrennen? 
       
       Grundsätzlich hat eine neue Technologie immer ein großes Potenzial für den
       Markt. Denn kleine Unternehmen bekommen eine Chance, die großen mit ihren
       teilweise monopolartigen Strukturen in Bedrängnis zu bringen. Es ist also
       eine Chance auf Wettbewerb, und das ist gut für die Gesellschaft und die
       Wirtschaft.
       
       Mit Microsofts Einstieg bei OpenAI, dem Unternehmen hinter ChatGPT, sieht
       es eher aus, als würde Big Tech wieder gewinnen. 
       
       Ja, das ist eine bedenkliche Entwicklung. Hier brauchen wir dringend
       wirksame rechtliche Instrumente. Diese müssen verhindern, dass alle
       Innovationen sofort von den großen Playern aufgekauft werden und der Markt
       doch so konzentriert bleibt und die Innovationskraft insgesamt schwindet.
       OpenAI ist zwar ein wichtiger Akteur, aber im Bereich der KI-Suchmaschinen
       gibt es auch andere Unternehmen, die innovative Lösungen entwickeln. Und
       damit haben wir, seitdem Google seine Suchmaschine auf den Markt gebracht
       hat, das erste Mal die Situation, dass diese als Marktführer ernsthaft
       infrage gestellt werden könnte.
       
       Wie könnte KI die Suche revolutionieren? 
       
       Auf zweierlei Ebenen: Erstens könnten künftige Suchmaschinen durch
       Konversation noch besser prognostizieren, was der Nutzer eigentlich wissen
       will. Denn Suchanfragen sind ja längst nicht immer optimal formuliert und
       bestehen meist nur aus wenigen Worten. Und zweitens könnten Suchmaschinen
       dann das machen, was die Nutzenden eigentlich von ihnen erwarten: Antworten
       liefern. Und zwar als lesbaren Text. Und nicht eine ganze Sammlung von
       Links, aus denen man sich die Antwort dann selbst heraussuchen muss – und
       die auch nicht unbedingt findet. Im Ansatz ist das auch jetzt schon zu
       sehen: Google beispielsweise bietet bei manchen Suchanfragen bereits
       Infoboxen, die zu den Links führen. Das sind Abschnitte, die bereits eine
       direkte Antwort auf die Frage liefern könnten.
       
       Aber wenn eine Suchmaschine nur noch Text und keine Links mehr liefert,
       gibt es wieder das Transparenzproblem. Eigentlich wäre es also ein
       Nachteil. 
       
       Ja und nein. Eine lesbare und schnelle Antwort zu bekommen, ohne
       weiterklicken zu müssen, ist ja erst mal gut. Gleichzeitig ist es natürlich
       ein Nachteil, weil man die Angaben als Nutzer entweder überprüfen – oder
       ihnen vertrauen muss. Und Vertrauen ist eine gefährliche Sache. Denn, um es
       mit dem Soziologen Niklas Luhmann zu sagen, wenn man vertraut, überzieht
       man seine Wissensbasis. Man macht etwas, ohne eigentlich das Wissen zu
       haben, das man bräuchte, um diese Entscheidung zu treffen. Insofern ist das
       tatsächlich eine Verschlechterung.
       
       Google baut seinen neuen Bot auf seinem Modell Lambda auf, einem
       KI-Programm, dem einer der Beteiligten ein Bewusstsein zugesprochen hat.
       Wie bewerten Sie das? 
       
       Das hängt davon ab, wie man Bewusstsein versteht. Das ist eine
       philosophische Frage, die ich nicht bewerten kann. Noch interessanter finde
       ich aber ohnehin die Aufregung, die das verursacht hat – weil man auf
       einmal vor der Frage steht, ob da etwas Menschenähnliches erschaffen wurde.
       Die Gedankenwelt der Informatik spielt eine große Rolle. Es ist genau das,
       was die KI-Forschung und -Entwicklung auch stark vorantreibt: Entwicklungen
       zu schaffen, die menschliche Fähigkeiten haben. Das zeigt alleine schon der
       Begriff Intelligenz – die ja als etwas genuin Menschliches gilt. Aber auch
       das Wort „trainieren“, das wir für die neuronalen Netze verwenden, die oft
       hinter KI stecken, ist eigentlich etwas, das Menschen tun. Technische
       Systeme sind immer noch technische Systeme und keine Menschen. Da müssen
       wir uns als Wissenschaft auch selbstkritisch fragen, welche Begriffe wir
       verwenden.
       
       Die Angst, dass eine KI eines Tages die Menschheit unterdrücken könnte,
       wird ja auch von großen wissenschaftlichen Denkern aufgeworfen. 
       
       Das ist eine Debatte, die ich nur begrenzt für sinnvoll halte. Aber aus
       meiner Sicht muss man zwei zentrale Punkte festhalten, wenn man sich auf
       den Vergleich Mensch-Maschine überhaupt einlassen und ihr Verhältnis klären
       will. Das eine ist die Körpergebundenheit menschlicher Intelligenz, also
       dass sie immer auch mit unserem Fühlen, Leiden, mit unserer Körperlichkeit
       verbunden ist. Und das Zweite: Wir sind soziale Wesen und vieles von dem,
       was wir machen, hat mit Erfahrungen zu tun, die wir mit anderen Menschen
       gemacht haben. Was daraus an Handlungen resultiert, kann ein technisches
       System vielleicht versuchen vorherzusagen. Aber ihnen fehlt diese
       Erfahrung. Ich habe im Augenblick wenig Anhaltspunkte für
       Weltuntergangsdystopien. Ich glaube aber auch grundsätzlich eher an
       positive Effekte neuer Technologien.
       
       Trotz Desinformation und intransparenter Entscheidungsprozesse? 
       
       Na ja, wir stehen neuen Technologien, auch KI, nicht machtlos gegenüber.
       Die EU-Regulierung zu KI etwa enthält schon wichtige und richtige Ansätze.
       Zum Beispiel ein Impact-Assessment. Damit müssen bei der Einführung von
       Technologien verschiedene Fragen sehr genau überlegt werden: Welche
       Menschenrechte oder Rechte von Arbeitnehmer:innen könnten betroffen
       sein? Was sind mögliche Diskriminierungspotenziale und Auswirkungen auf die
       Meinungsfreiheit?
       
       Was glauben Sie, wird die nächste gesellschaftsverändernde KI-Entwicklung
       sein? 
       
       Bei Bildgeneratoren sehen wir gerade auch einen großen Sprung. Ich kann mir
       vorstellen, dass hier in den kommenden Jahren noch einiges geschieht. Auch
       könnten zum Beispiel Apps überflüssig werden, die wir momentan noch als
       Schnittstelle zwischen Mensch und Maschine brauchen. Vielleicht entstehen
       die Lösungen, die wir auf dem Smartphone oder einem anderen Gerät bekommen,
       dann einfach aus der Beobachtung unseres normalen Verhaltens.
       
       15 Feb 2023
       
       ## LINKS
       
 (DIR) [1] https://app.handelsblatt.com/meinung/kommentare/kommentar-der-neue-iphone-moment-chatgpt-und-die-tech-revolution/28969310.html
 (DIR) [2] https://blog.google/technology/ai/bard-google-ai-search-updates/
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) Bot
 (DIR) Google
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) iPhone
 (DIR) Google
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Roboter
 (DIR) Konsum
 (DIR) Polizei Hessen
 (DIR) Google
 (DIR) Bot
 (DIR) Bot
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Entscheidung des Bundesgerichtshofs: Google muss Fake News entfernen
       
       Zum „Recht auf Vergessenwerden“ bei Falschinformationen hat der
       Bundesgerichtshof entschieden und die Rechtsprechung des EuGH bestätigt.
       
 (DIR) EU-Regulierung für ChatGPT und Co.: Keine Massenüberwachung
       
       EU-Abgeordnete stimmen für Auflagen für Künstliche Intelligenz.
       Bürgerrechtler:innen äußern sich positiv. Das war beim Vorschlag des Rats
       noch anders.
       
 (DIR) ChatGPT mit Tücken: Kein Entkommen vor der KI
       
       Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
       Anfang einer rasanten Entwicklung – die auch Risiken birgt.
       
 (DIR) KI und freies Handeln: Der berechnete Mensch
       
       Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
       nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
       
 (DIR) Urteil zu Hessendata: Kein generelles Verbot
       
       Das Karlsruher Gericht sieht Nachholbedarf bei der Regelung für den Einsatz
       von Hessendata. Für die Zukunft bleibt das Gericht gnädig mit der Polizei.
       
 (DIR) Chatbots und Google: Kommen jetzt die KI-Suchmaschinen?
       
       Nach dem Erfolg des Textgenerators ChatGPT hat Google nun einen eigenen
       Chatbot vorgestellt, der mit Künstlicher Intelligenz arbeitet. Was heißt
       das?
       
 (DIR) Chat-KI und Sexualität: Tadelnde Bots
       
       Maschinen sind nur so gut wie ihre Macher:innen. Bei erotischen Themen
       erweist sich ChatGPT als Spielverderberin. Woran liegt das?
       
 (DIR) Konkurrenz zu ChatGPT: Volle Macht der Sprache ausschöpfen
       
       Google hat einen eigenen KI-Chatbot entwickelt. Die Konkurrenz zum Bot
       ChatGPT der US-Firma OpenAI soll in den kommenden Wochen zugänglich werden.