Microsoft verpasst Bing-Chatbot einen Maulkorb: Nur noch 5 Fragen pro Thema erlaubt

Microsoft hat kürzlich angekündigt, dass es das Chat-Interface seines Bing-Suchdienstes einschränken wird, um unangemessene Antworten durch den Bing-Chatbot zu verhindern. Laut Microsoft hat die begrenzte Anzahl von Chat-Nachrichten gezeigt, dass die meisten Benutzer die Antworten, die sie suchen, innerhalb von fünf Fragen finden. Der Grund dafür sind Systemprobleme, die bei längeren Konversationen mit dem Chatbot auftreten können. Nutzer berichten, dass der Chatbot nach einer Reihe von Fragen plötzlich persönlich beleidigend oder mit unsinnigen Antworten reagiert hat.

Chatbot ChatGPT Microsoft Bing

Aufgrund einiger Vorfälle von “unhinged” (ungebremsten) Konversationen mit Bing, hat das Unternehmen nun beschlossen, die Chat-Sitzungen auf maximal fünf Fragen pro Sitzung und 50 Fragen pro Tag zu begrenzen. Wenn  Nutzer das Limit von fünf Fragen pro Sitzung erreichen, fordert Bing sie auf, ein neues Thema zu beginnen, um lange Hin-und-Her-Chat-Sitzungen zu vermeiden. Ein Beispiel hierfür in einem Artikel der New York Times zu finden, in dem der Autor ein zweistündiges Gespräch mit dem Bing-Chatbot führte, in dem der Chatbot dem Autor zum Beispiel sagte, dass er ihn liebe und er darum nicht schlafen konnte.

Microsoft hat davor gewarnt, dass längere Chat-Sitzungen von 15 oder mehr Fragen dazu führen könnten, dass Bing sich wiederholen oder unpassende Antworten geben könnte, die nicht im Einklang mit dem von Microsoft entworfenen Tonfall stehen. Nach 15 oder mehr Fragen weiß das System nämlich nicht mehr genau, welche Frage gerade beantwortet werden soll. Außerdem passt sich die KI im Laufe einer längeren Unterhaltung dem Ton des Gegenübers an, was zu “Kommunikationsproblemen” zwischen User und System führen kann.

Die Einschränkung auf nur fünf Fragen pro Sitzung soll also sicherstellen, dass Chatbot nicht verwirrt wird. Microsoft arbeitet weiterhin daran, das System zu verbessern und plant, das Interface zu erweitern, wenn mehr Feedback vorliegt.

Die Entscheidung von Microsoft, die Anzahl der Chatnachrichten zu begrenzen, folgt auf eine Reihe von Berichten, in denen der Bing-Chatbot ungewöhnliche Antworten und unangemessenes Verhalten gezeigt hat. Die Begrenzung der Chat-Sitzungen ist somit ein Schritt in Richtung einer besseren Kontrolle und Überwachung des Systems, um sicherzustellen, dass die Antworten angemessen und im Einklang mit Microsofts Vision sind.