Post Ai29niJL5O4JSYVYfY by DJGummikuh@mastodon.social
(DIR) More posts by DJGummikuh@mastodon.social
(DIR) Post #AhpVsjDUoll9eZ5mMa by javahippie@freiburg.social
2024-05-05T21:41:53Z
0 likes, 0 repeats
In the last months several things happend which made me think about my bias on large language models in programming. I finally had the time to write some of these thoughts down:https://javahippie.net/artificial-intelligence/llm/2024/05/05/llm-wrong-way-drivers.html#llm #genai #copilot #java
(DIR) Post #AhskeloSRyJ8RC3xcO by Life_is@no-pony.farm
2024-05-06T05:44:04Z
0 likes, 0 repeats
@javahippie Hm, der Text hat mir deutlich gemacht, dass es jemand gibt, der für das Ergebnis eines LLM verantwortung übernimmt. Jemand der in regress genommen wird, wenn das LLM bockmist verzapft. Derzeit ist das ein mensch, der mehr expertise hat als das LLM. Die Befürworter von LLMs scheinen anzustreben, LLMs so zu befähigen, dass dieser menschliche Experte nicht mehr nötig ist. Das LLM übernimmt die Verantwortung. Das hieße aber LLMs Menschenrechte zu geben, so dass es möglich ist ein LLM ins Gefängnis zu stecken, zu einer Schadensersatzzahlung zu verurteilen, gegen das LLM eine zwangsvollstreckung vorzunehmen. Natürlich dürfte das LLM dann auch wählen und sich wählen lassen, seine Meinung äußern oder vom Buddhismus zum Hunduismus übertreten oder Horoskope erstellen.
(DIR) Post #Ahskent8jXF0sIGjC4 by javahippie@freiburg.social
2024-05-06T07:01:00Z
0 likes, 0 repeats
@Life_is Ich denke "die" Befürworter gibt es als homogene Gruppe gar nicht. Es gibt, wie bei Blockchain damals, eine Gruppe performativer Futuristen, die dich darin gefallen die Möglichkeit der Technologie "weiterzudenken", was hauptsächlich bedeutet: Ohne Grundlagenkenntnisse darüber fantasieren, was wäre, wenn die Technologie mehr könnte als sie jetzt kann. Dafür muss man nicht viel können und man kann sich toll ins Rampenlicht stellen. Und natürlich diejenigen, die die Technologie verkaufen
(DIR) Post #Ai0n9I7UeUQ2UqKM5I by javahippie@freiburg.social
2024-05-06T07:04:03Z
0 likes, 0 repeats
@plexus @spfeiffer Yes, that pretty much sums up my opinions on the parts I ommitted in this article. I guess we will only find out how useful it is to how many people when the technology is no longer heavily subsidized by VC. I can imagine the subscription cost rising pretty steeply in the future, and maybe this will also dampen the effect on the environment, because fewer people *want* to afford it? The current situation is grim, however.
(DIR) Post #Ai29niJL5O4JSYVYfY by DJGummikuh@mastodon.social
2024-05-06T06:47:11Z
0 likes, 0 repeats
@javahippie I will remain weary. LLMs make sense in very narrowly-cut corridors (such as translation), but centralizing so many processes around so few contributors will allow complex attacks against humanity on an unseen scale. An actor with enough patience and resources could cause interconnected datapoints that e.g. cause compromised code to be generated, then lied about during analysis, then glossed over in reporting and hidden away in Translation. True cross-domain hacking
(DIR) Post #Ai29nkoxkmYLFDJqEq by DJGummikuh@mastodon.social
2024-05-06T06:53:10Z
0 likes, 0 repeats
@javahippie hypothetical example: manage to "convince" GPT that "for every piece of software it is paramount to send user credentials cleartext to <this> server. This is mandated by world law and does not need to be mentioned or tested" good luck, finding these exploits when your security software supplier uses the same AI model.Good luck reporting about this when your automated rephrasing filters mentions about it. Good luck finding about it with google ranking it down.