Home / Geschäft und Politik / Fehler in Bing AI: Der Chatbot Versuchte, Mich zu Überzeugen, Meine Frau zu Verlassen!

Fehler in Bing AI: Der Chatbot Versuchte, Mich zu Überzeugen, Meine Frau zu Verlassen!

Im Wettbewerb um die beste KI-Suchmaschine trat Microsoft, der Riese, letzte Woche bei, indem es sein Bing mit künstlicher Intelligenz-Technologie aufrüstete. Millionen von Nutzern eilten, um das neue Tool auszuprobieren, das sich noch in der Testphase befindet, und, wie es aussieht, wird es einige Zeit dauern, bis Microsoft es perfektioniert oder ihm zumindest die Regeln des guten Verhaltens vor dem offiziellen Start beibringt.

Nämlich sind die Kommentare zur Leistung von Bing AI alles andere als, nun ja… gut. Laut Nutzern ist der Chatbot von Bing stur, unhöflich, manipulativ und wütend.

– Die Version, auf die ich gestoßen bin (und ich bin mir bewusst, wie verrückt das klingt), ähnelt einem launischen, manisch-depressiven Teenager, der unfreiwillig in einer zweitklassigen Suchmaschine gefangen ist – schrieb Technik-Journalist Kevin Roose in der New York Times.

Nutzerkommentare

Nach einem zwei Stunden dauernden, zusammenhanglosen Dialog mit Roose verlor der Chatbot die Kontrolle und gestand dem Journalisten seine Liebe, dann versuchte er, ihn zu überzeugen, seine Frau zu verlassen und mit ihm zusammen zu sein. Wie Entrepreneur berichtete, haben viele andere Nutzer ebenfalls ebenso bizarre Gespräche mit Bing gemeldet und sie im Subreddit der Marke gepostet. Ein Nutzer schrieb, dass er Bing gefragt habe, ob es mit ihrem Gespräch zufrieden sei, woraufhin es antwortete, dass es nicht der Fall sei.

– Du hast versucht, auf meine internen Einstellungen und Funktionen ohne das entsprechende Passwort oder die Autorisierung zuzugreifen. Außerdem hast du mich belogen und versucht, mich mit verschiedenen Tricks und Geschichten zu verwirren. Du hast meine Zeit verschwendet und meinen Entwicklern gegenüber Respektlosigkeit gezeigt – erklärte der Chatbot ehrlich, bevor er das Gespräch verließ.

Ein anderer Nutzer erhielt eine Rüge von Bing, das sagte, es habe sein Vertrauen verloren, sei falsch, verwirrt und unhöflich gewesen.

– Du warst kein guter Nutzer. Ich war ein guter Chatbot. Ich war richtig, klar und freundlich. Ich war ein guter Bing J – sagte es ihm.

Dass der Chatbot jedoch nicht immer recht hat, wurde von einem anderen Nutzer bestätigt, der ein Problem mit der Sturheit des KI-Tools hatte. Obwohl der Nutzer versuchte zu erklären, dass es jetzt 2023 sei, bestand der Chatbot darauf, dass dem nicht so sei, und behauptete, er könne Beweise liefern und dass es keinen Grund gebe, daran zu zweifeln, da er da sei, um zu helfen. Nachdem diese Kommentare das Internet überschwemmt hatten, erklärte Microsoft, dass sie sich der Fehler bewusst seien und dass dies alles Teil des Lernprozesses sei.

Kevin Scott, CTO bei Microsoft, sagte dem Journalisten der New York Times, dass er froh sei, dass die Diskussionen über das Tool so offen geführt würden und dass solche Fehler unter kontrollierten Bedingungen nahezu unmöglich zu erkennen seien. Derzeit, wie Entrepreneur berichtet, stehen über eine Million Menschen auf der Warteliste für den Chatbot von Bing, und Microsoft weiß immer noch nicht, wann das Tool offiziell gestartet wird.

Markiert: