KI: OpenAI veliert letzten verantwortungsvollen Entwickler

Für KI-Nutzer*innen ist es Zeit, Farbe zu bekennen: Spielen sie im Team Verantwortung oder im Team Kommerz?

Mit Ilya Sutskever und Jan Leike verlassen zwei der verantwortungsvollsten KI-Entwickler OpenAIs die Firma. Die Weiterentwicklung von ChatGPT & Co. liegt nun bei den Anhängern von CEO Sam Altman, die Geschwindigkeit, Börsenwert und Marktmacht über Vorsicht, Verantwortung und Ethik stellen. Sie verfolgen das Ziel einer Allgemeinen Künstlichen Intelligenz (AGI), die der menschlichen ebenbürtig ist.

Wer ChatGPT oder GPT-Modelle nutzt, unterstützt deren Vision. Einige Gedanken dazu:

1. Niemand weiß, was AGI ist

a) OpenAI strebt die Entwicklung einer AGI an, hat aber keine klare Definition dafür. Es ist unklar, welche konkreten Kriterien für das Erreichen des AGI-Status gelten, ob OpenAI welche formuliert hat – und, ob sie das Erreichen dieses Status bemerken.

Altman (Mitte) und Sutskever (rechts), 2023
Altman (Mitte) und Sutskever (rechts), 2023. Foto: Eladkarmel, CC BY-SA 4.0 https://creativecommons.org/licenses/by-sa/4.0

b) Trotz der weitreichenden gesellschaftlichen Implikationen einer AGI gibt es wenig Transparenz seitens OpenAI über den Stand der Entwicklung. Dass die Firma dabei dem Abwägen von Gefahren und dem Suchen von Missbrauchsmöglichkeiten („Red Teaming“) eine besonders große Priorität einräumt, ist nach dem Weggang von Leike und Sutskever unwahrscheinlicher geworden.

2. Altman ist nicht verlässlich

a) Sam Altman schwankt in seinen Aussagen zwischen Lobpreisung der AGI als Chance für die Menschheit und Warnungen vor möglichen katastrophalen Folgen der KI-Technologie.

b) Die OpenAI-Forscher sind sich bewusst, dass eine übermenschlich intelligente „Superintelligenz“ mit heutigen Methoden nicht kontrollierbar wäre. Dennoch arbeitet das Unternehmen unvermindert an einer AGI, die eine Vorstufe einer Superintelligenz sein könnte.

3. OpenAIs Gründungsvision verraten

a) Sutskever hat das Unternehmen mitgegründet und verkörperte bis zuletzt das ursprüngliche Unternehmensziel, das Wohl der Menschheit im KI-Zeitalter zu schützen.

b) Die voreilige Veröffentlichung des ziemlich unreifen GPT3-Modells Ende 2022 fand unter Protest vieler OpenAI-Mitarbeiter statt. Mit dem Weggang Sutskevers scheint der letzte Hemmschuh auf dem Weg in Richtung Verantwortungslosigkeit beseitigt. Altmans unverholene Anbiederung bei zwielichtigen Geldgebern im Nahen Osten ist ein Beleg dafür.

Fazit: Die jüngsten Veränderungen im Unternehmen und das irrlichternde Verhalten des nun erneut mächtiger gewordenen Altmans erwecken den Eindruck, dass das möglichst schnelle Erreichen einer AGI bei OpenAI oberste Priorität hat, während Sicherheitsbedenken und eine klare Strategie zum Umgang mit den Risiken in den Hintergrund treten. Angesichts der Schwammigkeit des AGI-Begriffes, der unklaren Abgrenzung zur übermenschlich intelligenten Superintelligenz und deren unabsehbaren Folgen sind die jüngsten Entwicklungen bei OpenAI ein echter Grund zur Sorge.

Wer jetzt zu einem anderen Chatbot wechselt (etwa zu Google Gemini oder den Multi-KI-Diensten Perplexity.ai, You.com oder Fobizz), setzt ein Zeichen gegen OpenAIs unheilvollen Kurs.

Kommentare sind geschlossen.