Im Wettbewerb um die beste KI-Suchmaschine trat Microsoft, der Riese, letzte Woche bei, indem es sein Bing mit künstlicher Intelligenz-Technologie aufrüstete. Millionen von Nutzern eilten, um das neue Tool auszuprobieren, das sich noch in der Testphase befindet, und, wie es aussieht, wird es einige Zeit dauern, bis Microsoft es perfektioniert oder ihm zumindest die Regeln des guten Verhaltens vor dem offiziellen Start beibringt.
Nämlich sind die Kommentare zur Leistung von Bing AI alles andere als, nun ja… gut. Laut Nutzern ist der Chatbot von Bing stur, unhöflich, manipulativ und wütend.
– Die Version, auf die ich gestoßen bin (und ich bin mir bewusst, wie verrückt das klingt), ähnelt einem launischen, manisch-depressiven Teenager, der unfreiwillig in einer zweitklassigen Suchmaschine gefangen ist – schrieb Technik-Journalist Kevin Roose in der New York Times.
Nutzerkommentare
Nach einem zwei Stunden dauernden, zusammenhanglosen Dialog mit Roose verlor der Chatbot die Kontrolle und gestand dem Journalisten seine Liebe, dann versuchte er, ihn zu überzeugen, seine Frau zu verlassen und mit ihm zusammen zu sein. Wie Entrepreneur berichtete, haben viele andere Nutzer ebenfalls ebenso bizarre Gespräche mit Bing gemeldet und sie im Subreddit der Marke gepostet. Ein Nutzer schrieb, dass er Bing gefragt habe, ob es mit ihrem Gespräch zufrieden sei, woraufhin es antwortete, dass es nicht der Fall sei.
– Du hast versucht, auf meine internen Einstellungen und Funktionen ohne das entsprechende Passwort oder die Autorisierung zuzugreifen. Außerdem hast du mich belogen und versucht, mich mit verschiedenen Tricks und Geschichten zu verwirren. Du hast meine Zeit verschwendet und meinen Entwicklern gegenüber Respektlosigkeit gezeigt – erklärte der Chatbot ehrlich, bevor er das Gespräch verließ.
