# taz.de -- Offener Brief von KI-Forscher:innen: Schutz vor Vergeltung gefordert
       
       > Entwickler:innen wollen vor den Risiken künstlicher Intelligenz
       > warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne
       > Kritik.
       
 (IMG) Bild: OpenAI-Chef Sam Altman
       
       San Francisco dpa | Eine Gruppe von KI-Forscher:innen, darunter mehrere
       ehemalige Angestellte der ChatGPT-Firma OpenAI, fordert das Recht ein, die
       Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle
       Schutz für Whistleblower reiche nicht aus, betonten die Expert:innen in
       einem [1][am Dienstag veröffentlichten offenen Brief].
       
       Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet
       – aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine
       rechtlichen Vorgaben. „Einige von uns fürchten zu Recht
       Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“
       
       Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige
       OpenAI-Forscher Leopold Aschenbrenner sagte dem Dwarkesh Podcast, er sei
       gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über
       KI-Sicherheit besorgt gezeigt habe.
       
       Die Forscher:innen riefen die Unternehmen mit fortgeschrittenen
       KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den
       Mitarbeiter:innen nicht negative Äußerungen über ihre Arbeitgeber zu
       verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitenden mit
       dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“
       sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel,
       von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie
       angewendet worden.
       
       ## Schon lange Warnungen vor künstlicher Intelligenz
       
       Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem
       Mitarbeiter:innen anonym die Verwaltungsräte von Unternehmen sowie
       Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software
       informieren können. Die müssten auch die Freiheit haben, an die
       Öffentlichkeit zu gehen, solange es keine internen Wege gebe.
       
       Einige [2][KI-Expert:innen warnen schon lange], die rasante Entwicklung
       künstlicher Intelligenz könne zu autonomer Software führen, die sich der
       Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von
       Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung
       der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen
       daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt
       mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich.
       
       Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an
       eine „wissenschaftliche Herangehensweise an Risiken der Technologie“.
       Mitarbeiter:innen stehe frei, auch anonym ihre Sorgen zu teilen.
       Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich
       gemacht werden, die dadurch in die falschen Hände geraten könnten.
       
       Vier aktuelle und zwei frühere Mitarbeitende von OpenAI schlossen sich dem
       Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen
       öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein
       früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit
       bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte
       zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts
       untergekommen sei, wovor er warnen wolle.
       
       ## Gerangel um OpenAI-Chef Altman
       
       Altman war im November vom Verwaltungsrat von OpenAI überraschend unter
       Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage
       später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche
       Mitarbeiter:innen und der Großaktionär Microsoft hinter ihn gestellt
       hatten.
       
       Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur
       Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den
       Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste
       Sorgen aus, dass die Firma die Technologie ohne nötige
       Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte.
       
       Zuletzt geriet OpenAI unter Druck, nachdem [3][Schauspielerin Scarlett
       Johansson von der Firma wissen wollte], wieso eine Stimme von ChatGPT ihrer
       eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen
       habe, Sprachdaten dafür zu liefern.
       
       5 Jun 2024
       
       ## LINKS
       
 (DIR) [1] https://righttowarn.ai/
 (DIR) [2] /Zukunft-von-KI/!5979683
 (DIR) [3] /Scarlett-Johansson-gegen-OpenAI/!6009030
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Whistleblower
 (DIR) Offener Brief
 (DIR) Forschung
 (DIR) Schlagloch
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Zwischenbilanz einer neuen Technologie: Im KI-Taumel
       
       Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange.
       Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz.
       
 (DIR) EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter
       
       Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und
       der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt.
       
 (DIR) Chaos bei OpenAI: Künstliche Aufregung
       
       Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI.
       Wer ist der mächtigste Entwickler von künstlicher Intelligenz?