# taz.de -- KI und freies Handeln: Der berechnete Mensch
       
       > Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
       > nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
       
 (IMG) Bild: Soll die KI entscheiden, womit der Kühlschrank gefüllt ist?
       
       Fisch oder Fleisch? Auto oder Rad? Berge oder Meer? Jeden Tag muss der
       Mensch Entscheidungen treffen. Sehr viele sogar. 35.000 sollen es im
       Durchschnitt am Tag sein. Oft sind es sehr banale Entscheidungen wie die
       Wahl des Essens oder Outfits. Andere Fragen wiederum, etwa
       Wahlentscheidungen oder Patientenverfügungen, sind sehr schwerwiegend und
       folgenreich. Auf die Frage, warum er immer blaue oder graue Anzüge trage,
       antwortete der ehemalige US-Präsident Barack Obama in einem Interview: „Ich
       möchte keine Entscheidungen darüber treffen, was ich esse oder anziehe. Ich
       habe viele andere Entscheidungen zu treffen.“
       
       Gewiss, nicht jeder ist US-Präsident und muss die großen Fragen von Krieg
       oder Frieden beantworten. Doch in einer Welt, wo es von All inclusive bis
       zur Zahnzusatzversicherung extrem diverse Optionen gibt, fällt es vielen
       Menschen schwer, Entscheidungen zu treffen. Was ist das Richtige für mich?
       Was kann ich mir leisten? Welche Folgen hat mein Handeln für andere?
       
       Auf dieses kollektive Gefühl der Überforderung [1][antworten KI-Systeme]
       mit dem Basta-Rigorismus von gestern. „Mach dir keinen Kopf, wir nehmen dir
       die Entscheidung ab“ – das ist die unterschwellige Botschaft, die viele
       Apps und elektronische Helferlein vermitteln. „Manage dein Leben“, so
       bewirbt der chinesische Technologie-Konzern Huawei seinen persönlichen
       Assistenten Today. Die Künstliche Intelligenz sendet Updates über die
       Lieblingsmannschaft, informiert über Verkehrsstörungen und erinnert an das
       nächste Meeting. Dank digitaler Assistenz kann sich der Nutzer stärker auf
       die Arbeit fokussieren.
       
       Nun kann man sich generell fragen, ob der tägliche Wahnsinn zwischen Kita,
       Schulausfall und Zugverspätungen überhaupt managementfähig ist und nicht
       viel eher eines Neustarts bedürfte. Doch ganz unabhängig von solchen Fragen
       sind in den Alltag bereits sehr viele subtile Entscheidungshilfen
       eingebaut.
       
       Algorithmen entscheiden, welche Nachrichten wir morgens auf unserem Handy
       lesen, über welches Tinder-Profil wir wischen und welchen Heimweg wir
       nehmen. Mit dieser Vorauswahl erhalten automatisierte Systeme
       [2][Entscheidungsmacht über das Leben]. Bloß: Entscheiden sie im Interesse
       derer, die sie nutzen? Oder im Interesse der Entwickler und Werbekunden?
       
       Klar, wir geben nicht gleich unsere Autonomie preis, nur weil wir auf den
       Textbaustein klicken, den die Autovervollständigung aufgrund des Such- und
       Schreibverhaltens errechnet hat. Auch im analogen Leben trifft man
       Entscheidungen nicht frei von Zwängen, zum Beispiel, wenn man in der
       Schlange an der Supermarktkasse doch noch den Schokoriegel aufs Band legt
       und den Tricks der Industrie auf den Leim geht. Zur Freiheit gehört auch,
       gegen die eigene Vernunft handeln zu können. Wenn uns aber digitale
       Spurhalteassistenten zielstrebig von einem Geschäft zum nächsten lotsen,
       wird aus dem vermeintlich freiheitsstiftenden Konsumerlebnis schnell eine
       manipulative Kaffeefahrt – eine Art embedded shopping.
       
       Künftig könnten Black-Box-Algorithmen in ethischen Dilemmasituationen sogar
       zum Richter über Leben und Tod werden. Wenn ein Roboterfahrzeug auf eine
       Kreuzung zufährt und die Abstandssensoren feststellen, dass es für einen
       Bremsvorgang zu spät ist, muss der Fahrcomputer entscheiden: Nach links
       ziehen und den SUV-Fahrer mit der schwangeren Frau auf dem Beifahrersitz
       rammen? Oder nach rechts ausweichen und den Radfahrer ohne Helm mitnehmen?
       Auf welcher Grundlage werden solche Entscheidungen getroffen?
       
       Die Ökonomen Ajay Agrawal, Joshua Gans und Avi Goldfarb schreiben in ihrem
       aktuellen Buch „Power and Prediction“, dass [3][KI als Prognosetechnik]
       dazu diene, alte Regeln durch neue Entscheidungen zu ersetzen. Regeln – die
       Autoren nennen beispielhaft Obamas Garderobe – seien auch Entscheidungen,
       die man präemptiv treffe, um die kognitiven Kosten zu senken. Wer vorab die
       Farben grau und blau festlegt, muss sich keine Gedanken um das Outfit
       machen. Es gebe aber auch jede Menge implizite Verhaltensregeln, zum
       Beispiel, einige Stunden früher am Flughafen zu sein, um in Erwartung
       längerer Wartezeiten bei der Sicherheitskontrolle und Gepäckaufgabe seinen
       Flieger nicht zu verpassen. Wenn nun mit Apps die genaue Wartezeit
       vorhergesagt werden könnte, würden Fluggäste weniger Zeit am Gate
       verbringen und ergo weniger Geld ausgeben.
       
       ## Stetige Simulation
       
       In den Rechenzentren von Konzernen laufen ständig Simulationen über
       zukünftige Ereignisse: Staus, Einkäufe, Wetterphänomene. Amazon hat vor
       einigen Jahren ein Patent für ein vorausschauendes Logistiksystem
       („anticipatory shipping“) angemeldet. Die Idee: Waren werden verschickt,
       noch bevor der Kunde auf den Bestellknopf gedrückt hat. Eine KI würde
       anhand von Daten wie Kaufhistorie, Wunschlisten und Suchverhalten den
       nächsten Kauf vorhersagen und proaktiv den Versand des Produkts
       veranlassen. Während der Kunde gerade noch im Sortiment stöbert, ist die
       Ware längst im Lieferwagen.
       
       Zwar wurde das Patent bislang noch nicht umgesetzt. Trotzdem lohnt es sich,
       darüber nachzudenken, weil es hier um grundlegende technikphilosophische
       Fragen von Autonomie und Handlungsfreiheit geht. Ist man noch handelndes
       Subjekt, wenn die Handlungsfolge dessen, was man als nächstes tun wird,
       bereits eingetreten ist? Oder schon berechenbares Datenpaket? Ist man noch
       frei, Nein zu sagen? Oder ist man gezwungen, das Tun zu akzeptieren, weil
       das, was der Algorithmus errechnet hat, eben „Ich“ ist und man schlecht
       gegen das Selbst agieren kann, ohne seine Subjektivität zu verleugnen?
       
       ## Außer Konsum nichts mehr wollen
       
       Der französische Philosoph Gilles Deleuze vertrat die These, dass in der
       Kontrollgesellschaft Individuen zu Dividuen zerfallen, zu digital
       steuerbaren, teilbaren Ichs, die in Computern immer wieder neu berechnet
       und zusammengesetzt werden. Die „numerische Sprache der Kontrolle“, von der
       Deleuze schrieb, sprechen auch internetfähige Objekte wie [4][der smarte
       Kühlschrank]. Das Gerät betreibt nicht nur permanente Marktforschung,
       sondern übt auch eine Form der Sozialkontrolle aus. Wer holt morgens schon
       eine Flasche Bier raus? Wer achtet auf kalorienarme Kost? Wer isst viel
       Fett? Amazon hat vor Jahren eine Technologie patentieren lassen, die
       mithilfe von Kameras und Sensoren sogar verdorbene Waren aufspürt.
       
       Der smarte Kühlschrank basiert auf der kybernetischen Idee eines Systems,
       das sich selbst reguliert. Der Kunde braucht nichts mehr zu entscheiden, er
       braucht außer Konsum auch nichts mehr zu wollen – er muss nur ein paar
       Soll-Werte angeben, dann hält sich das System im Gleichgewicht. Beispiel:
       Der Kühlschrank darf nie weniger als einen Liter Hafermilch und 200 Gramm
       Käse enthalten. Den Rest erledigt das automatisierte Bestellsystem.
       
       ## Amazon für die Politik
       
       Unter dem Stichwort „anticipatory government“ werden solche
       Steuerungsmodelle auch für die Politik diskutiert. Der Gedanke: Die
       Regierung erlässt in Erwartung einer Nachfrage nach Sicherheit oder
       Wohnraum proaktiv Maßnahmen, damit man sich die „politics“-Dimension, wie
       Politikwissenschaftler sagen, also den mühsamen Prozess der Aushandlungen,
       „spart“. Ein Amazon für die Politik quasi: Das Volk bestellt, die Regierung
       liefert. Warum auf die Straße gehen, wenn das Hilfspaket schon auf dem Weg
       ist?
       
       Eine Kybernetisierung des Gemeinwesens liefe jedoch auf ein Ende des
       Politischen hinaus, weil das, was Politik ausmacht – der Streit, das Ringen
       um das beste Argument, Streiks – letztlich bloß technische Störungen wären.
       Dass der smarte Kühlschrank, der seit Jahren auf Technikmessen angepriesen
       wird, sich bis heute nicht durchsetzen konnte, beweist aber, dass sich die
       Verbraucher doch noch einen Rest von Entscheidungsmacht vorbehalten.
       
       26 Feb 2023
       
       ## LINKS
       
 (DIR) [1] /Experte-ueber-KI-Textgeneratoren/!5912420
 (DIR) [2] /Zukunftsfaehige-Digitalitaet/!vn5819700
 (DIR) [3] /Algorithmen-in-der-Kunst/!5896480
 (DIR) [4] /Umweltproblem-smarte-Haushaltsgeraete/!5501503
       
       ## AUTOREN
       
 (DIR) Adrian Lobe
       
       ## TAGS
       
 (DIR) Konsum
 (DIR) Konsumverhalten
 (DIR) Roboter
 (DIR) Autonomie
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Interview
 (DIR) Transparenz
 (DIR) Lesestück Recherche und Reportage
 (DIR) Buch
 (DIR) Polizei Hessen
 (DIR) Bot
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“
       
       Sucht, Schulden, Kindererziehung – bei vielen Problemen können
       Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI?
       
 (DIR) OpenAI in der Kritk: Transparent gewaschen
       
       Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
       ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
       problematischer.
       
 (DIR) ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
       
       Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
       Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch
       etwas Zentrales verlorengeht. Stimmt das?
       
 (DIR) ChatGPT als Sci-Fi-Autor: Wer die Zukunft schreibt
       
       Unsere Autorin schreibt Science-Fiction, Text-KIs können das mittlerweile
       auch. Davor, bald überflüssig zu sein, hat sie aber keine Angst.
       
 (DIR) Karlsruhe zu hessischem Polizeigesetz: Polizei-KI wird etwas eingeschränkt
       
       Das Bundesverfassungsgericht beanstandet das hessische Polizeigesetz, lässt
       aber eine Neuregelung zu. Bis Herbst hat die Landesregierung dafür Zeit.
       
 (DIR) Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“
       
       Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz
       spricht über Chancen, Risiken und die Bewusstseinsfrage.