Post ARtflQS8OUf9FaIium by heluecht@pirati.ca
(DIR) More posts by heluecht@pirati.ca
(DIR) Post #ARtXhqipz3oZvpthgG by BlumeEvolution@sueden.social
2023-01-21T13:55:14Z
0 likes, 0 repeats
Habe heute morgen mal die Künstliche Intelligenz von #ChatGPT zur Anerkennung des IS-Genozid am #Ezidentum im #Irak gefragt. Die Antwort war so präzise, dass ich nach der #Hitzemord-These fragte. Dann war #Gänsehaut, so gut war die Antwort. 😯🇩🇪🇪🇺🤔Habe daher mit der Parlamentsdebatte, Hintergründen und beiden #KI-Antworten in voller Länge hier dazu gebloggt: https://scilogs.spektrum.de/natur-des-glaubens/ki-zur-bundestag-anerkennung-des-is-genozid-am-ezidentum-zur-hitzemord-these/
(DIR) Post #ARtXhrEk4RKrWmpBPU by heluecht@pirati.ca
2023-01-22T07:55:55Z
0 likes, 0 repeats
Systeme wie ChatGPT sehe ich mit einer Mischung aus Angst und Faszination. Ich sehe das Problem, dass eine KI keine echte Moral hat. Und ich sehe das Problem, dass Menschen nur allzu bereit sind, Denkprozesse auf Maschinen zu delegieren. Man denke nur an diese Fälle, wo Navigationssysteme Menschen dazu gebracht haben, in den Fluss zu fahren, weil das Navi es so gesagt hat: https://www.ndr.de/nachrichten/niedersachsen/lueneburg_heide_unterelbe/Bleckede-Navi-leitet-Pkw-am-Faehranleger-in-die-Elbe,aktuelllueneburg6330.htmlJe zuverlässiger also die Antworten von solchen Systemen werden, desto weniger werden viele Leute diese Antworten hinterfragen. Und wenn diese Systeme dann keine feste Moral haben, kann es wirklich fatal enden.
(DIR) Post #ARtflPsgWIJ3TdiPey by Grausicht@mastodon.social
2023-01-22T09:16:15Z
0 likes, 0 repeats
@heluecht @BlumeEvolution "Ich sehe das Problem, dass eine KI keine echte Moral hat." Wie viele Menschen haben denn "echte" Moral?
(DIR) Post #ARtflQS8OUf9FaIium by heluecht@pirati.ca
2023-01-22T09:26:07Z
0 likes, 0 repeats
Menschen haben in der Regel einen eigenen Moralkompass. Auf dieser Basis treffen sie Entscheidungen. Die Frage ist, ob eine KI einen Moralkompass hat - und wenn ja, wie er eingestellt ist. Die Frage ist z.B., ob eine KI versteht, dass Menschen in der Regel der Ansicht sind, dass andere Menschen ein Lebensrecht haben, unabhängig von ihrem kognitiven und gesundheitlichen Zustand.
(DIR) Post #ARtib2uzL9CbE3XVWS by Grausicht@mastodon.social
2023-01-22T09:38:19Z
0 likes, 0 repeats
@heluecht @BlumeEvolution Menschen haben diesen Kompass auch nicht. Siehe Nazis, Stalin, Mao, (beliebige andere Arschlöcher einfügen). Darf ich ein Tierkleinkind (bspw. Zuchtschwein, neun Monate alt, kastriert, damit die Geschlechtshormone den Geschmack nicht verderben, selbstbewusst, intelligent) abmurksen und essen?Ich würde nicht so schnell ein "in der Regel" ableiten. Dies ist in der Regel falsch.
(DIR) Post #ARtib3K9pZKqU7Jbkm by heluecht@pirati.ca
2023-01-22T09:58:08Z
0 likes, 0 repeats
Ich denke, dass grundsätzlich alle Menschen diesen Kompass haben - aber er ist nicht universell identisch.
(DIR) Post #ARuC19TkT3TzlzbB5M by datawuppi@troet.cafe
2023-01-22T15:12:29Z
0 likes, 0 repeats
@heluecht @BlumeEvolution Das Problem ist, und wird immer mehr, dass wir, um zu verstehen, wo fie Grenzen dieser automatisierten Systeme sind, verstehen müssen, wie die Systeme funktionieren. Leider werden die Systeme immer komplexer, so dass genau dieses für Laien immer schwieriger wird.Hier kann ich z.B. den Youtube channel "Mentour Pilot" empfehlen, der dort Flugzeugunglücke erklärt. Dort gibt es einige, die genau auf fehlendes Verständniss von Autopilotgrenzen zurück zu führen sind.
(DIR) Post #ARuC1AAzsG4rw7piUq by datawuppi@troet.cafe
2023-01-22T15:16:44Z
0 likes, 0 repeats
@heluecht @BlumeEvolution Was in dieser Hinsicht auch nicht besser wird dadurch, dass wir hier nicht von echter emergenter KI sprechen, sondern von extrem komplexen mathematischen Modellen, die nicht von einem Menschen programiert worden aind, sondern durch "zufälliges Lernen" (sehr verkürzt dargestellt) reden. Diese Technik ist aber am Ende des Tages "nur" ein besserer Filter, dem beigebracht worden ist, Muster zu erkwnnen, und darauf zu reagieren.Dies hat jedoch zwei Kernprobleme:
(DIR) Post #ARuC1AdMAolLM56MhU by datawuppi@troet.cafe
2023-01-22T15:19:51Z
0 likes, 0 repeats
@heluecht @BlumeEvolution 1. Keiner kennt diese Muster wirklich. Man weiß also nicht wirklich, was dort welchen Effekt haben wird. Und darum kann man ewaige Fehler auch nicht entfernen, weil man nicht weiß, wo genau diese sich befinden. Also nicht mal die Experten wissen genau warum das Konstrukt das macht was es macht, und wo dessen Grenzen sind. Wie soll ea dann ein Laie hinbekommen?
(DIR) Post #ARuC1BB29bhX2WrGC0 by datawuppi@troet.cafe
2023-01-22T15:25:47Z
0 likes, 0 repeats
@heluecht @BlumeEvolution 2. Da diese Modelle mit vorhandenen Daten trainiert worden sind, sind sie inherent konservativ. Das heißt, sie können nur etwas reproduzieren, was sie schonmal gesehen haben. In der jetzigen Form aber nicht wirklich etwas neues erschaffen, oder auf etwas Neues oder eine neue Situation reagieren.Das heißt aber auch, dass dieses Modell auch alle Biases beinhaltet, welche durch das Lehrmaterial vorgegeben worden sind.
(DIR) Post #ARuC1BsdXUZzDlG59k by heluecht@pirati.ca
2023-01-22T15:27:41Z
0 likes, 0 repeats
Das Spannende wird werden, wenn die Trainingsdaten zu einem signifikanten Anteil aus Daten bestehen werden, die wiederum von KIs erzeugt wurden.
(DIR) Post #ARuC1FRUINEuGiaSOW by datawuppi@troet.cafe
2023-01-22T15:27:00Z
0 likes, 0 repeats
@heluecht @BlumeEvolution Zusammen heißt das, dass niemand genau weiß, ob in diesem Model irgendejn Bias vorhanden ist, bis er sich manifestiert, und dann wissen noch viel weniger, wie man den Bias los wird.