Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die Leine

France Nouvelles Nouvelles

Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die Leine
France Dernières Nouvelles,France Actualités
  • 📰 derspiegel
  • ⏱ Reading Time:
  • 29 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 15%
  • Publisher: 68%

Mit spontanen Liebesbekundungen und Drohungen sorgte der Bing-Chatbot von Microsoft für Aufsehen. Jetzt schränkt das Unternehmen die Nutzung des Chattools ein.

Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der »New York Times« gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.

Zuvor hatten bereits andere Anwender auf »unangemessene Antworten« des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig.

Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden. Microsoft-CEO

Nous avons résumé cette actualité afin que vous puissiez la lire rapidement. Si l'actualité vous intéresse, vous pouvez lire le texte intégral ici. Lire la suite:

derspiegel /  🏆 17. in DE

France Dernières Nouvelles, France Actualités

Similar News:Vous pouvez également lire des articles d'actualité similaires à celui-ci que nous avons collectés auprès d'autres sources d'information.

Künstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einKünstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einDie Microsoft-Suchmaschine Bing war jahrelang Google unterlegen – nun sollte die Einbindung einer KI Abhilfe leisten. Microsoft kämpft jetzt gegen Kinderkrankheiten des Systems.
Lire la suite »

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören. Wie Microsoft reagiert.
Lire la suite »

Microsoft schneidet seinem Chatbot das Wort abMicrosoft schneidet seinem Chatbot das Wort abMehr als zwei Stunden unterhält sich ein Reporter mit einem Chatbot von Microsoft. Irgendwann im Gespräch 'gesteht' das Programm dem Journalisten seine Liebe. Für den Konzern Microsoft Anlass, die Redezeit ab sofort drastisch zu begrenzen.
Lire la suite »

Nach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die LeineNach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die LeineNachdem dieser sich 'unangemessen verhalten' hat, hat Microsoft die Nutzung des Bing-Chatbots limitiert. Google arbeitet derweil mit Hochdruck an Chatbot Bard.
Lire la suite »

Berlin: Was die Chefärztin der Notaufnahme in Neukölln erlebtBerlin: Was die Chefärztin der Notaufnahme in Neukölln erlebtPsychiatrische Patienten, irritierende Antworten: Was Ulrike von Arnim als Chefärztin der Notaufnahme in Neukölln erlebt.
Lire la suite »



Render Time: 2025-03-10 11:36:45