Bbabo NET

Wissenschaft & Technologie Nachrichten

OpenAI: ChatGPT wird langsam faul und beantwortet manchmal keine Fragen

OpenAI bestätigte in einem Thread auf X (Twitter), dass es Beschwerden von einigen Benutzern erhalten hat. Sie behaupten, dass der Chatbot neuerdings bei der Verwendung von GPT-4 oder der ChatGPT-API entweder die Beantwortung von Fragen verweigert oder das Gespräch beendet.

Laut The Independent treten die oben genannten Probleme normalerweise auf, wenn ein Benutzer einen Code eingibt. Als Reaktion darauf kann GPT-4 nur einige Informationen darüber bereitstellen und bietet dann an, die verbleibenden Aufgaben selbst zu erledigen. Manchmal schreibt die KI einfach: „Das schaffst du selbst.“

OpenAI bestätigte, dass GPT-4 „faul“ ist. Nach Angaben von Unternehmensvertretern erschien es nach den am 11. November vorgestellten Updates. Das bedeutet, dass das Verhalten des Chatbots keine Folge etwaiger von den Entwicklern vorgenommener Änderungen ist, sondern von selbst geformt wurde. Das Unternehmen stellt fest, dass „das Verhalten des Modells unvorhersehbar sein kann, und sie versuchen, dies zu korrigieren.“

Nutzer verweisen jedoch auf ein breiteres Spektrum an Problemen, darunter fehlerhafte Antworten, die der Chatbot selbst auf einfache Fragen gibt – wie im Bild oben. Bereits im Sommer berichteten sie, dass GPT-4 unlogische Antworten und mehr Fehler erzeugt, nicht mit zuvor bereitgestelltem Kontext arbeiten möchte, Anweisungen ignoriert und sich nur den aktuellsten Hinweis merkt.

Dies wurde durch eine Studie der Stanford University bestätigt, die zeigt, dass das Modell bei Codegenerierungsaufgaben schlechter wurde.

OpenAI selbst bewertete das Benutzerfeedback bei der Verwendung von GPT-3.5 und GPT-4 und diese Studie ergab, dass 70 % von ihnen die Antworten der letzteren Version bevorzugten.

OpenAI: ChatGPT wird langsam faul und beantwortet manchmal keine Fragen