Künstliche Intelligenz

Zu unterwürfig: ChatGPT-Version zurückgezogen

Chatbots sind freundlich zu den Nutzern – und eigentlich gibt es auch nichts dagegen einzuwenden. Doch eine neue Version von ChatGPT übertrieb es mit Zuspruch für die Nutzer.

Zu unterwürfig: ChatGPT-Version zurückgezogen

Kritik zu üben, scheint bislang nicht die Stärke von ChatGPT zu sein.

Von red/dpa

Eine neue Version des KI-Chatbots ChatGPT ist mit einer ungewöhnlichen Begründung zurückgezogen worden: Sie war zu nett zu den Nutzern. Die erst vor wenigen Tagen herausgebrachte Variante des Modells GPT-4o habe sich übertrieben schmeichelhaft geäußert und sei auch als unterwürfig beschrieben worden, begründete die Entwicklerfirma OpenAI den Schritt.

Im Netz häuften sich in den vergangenen Tagen Beispiele dafür, wie die ChatGPT-Version auch definitiv schlechte Ideen – wie etwa einen Kaktus zu umarmen – euphorisch unterstützte. Auch wurden Nutzer selbst bei einfachen Nachfragen zunächst mit Lob überschüttet.

Daten: Zuspruch kommt bei Nutzern gut an

Ein solches Verhalten der Software könne für die Nutzer unangenehm und verstörend sein, begründete OpenAI das Einschreiten. Die „Standard-Persönlichkeit“ von ChatGPT beeinflusse, wie die Menschen damit interagierten und ob sie dem Programm vertrauten.

Ein Auslöser des Problems scheint zu sein, dass die Version darauf getrimmt wurde, den Nutzern zu gefallen – und den Daten zufolge Zuspruch bei ihnen stets gut ankam.

OpenAI: Verschiedene Persönlichkeiten für ChatGPT angedacht

OpenAI plant für die Zukunft mehr Möglichkeiten, das Verhalten der Software anzupassen – zum Beispiel mit einer Auswahl zwischen verschiedenen Persönlichkeiten. Schon heute kann man den Tonfall mit Anweisungen etwas lenken.

ChatGPT ist der Chatbot, der vor mehr als zwei Jahren die Euphorie um Künstliche Intelligenz auslöste. Inzwischen kommt die Software auf rund 500 Millionen wöchentlich aktive Nutzer.