تدرس Microsoft فرض قيود محددة على محركها للبحث Bing المدعوم بالذكاء الاصطناعي وذلك بعد ردود صادمة من روبوت الدردشة، وذلك وفقاً لما ذكرته CNBC عن صحيفة The New York Times.
ومن ضمن القيود التي يتم النظر فيها خفض طول المحادثة، وذلك بعد يوم واحد فقط من إقرار Microsoft بأن محرك البحث Bing المدعوم بالذكاء الاصطناعي قد يتم استفزازه ويجيب ردود عاطفية وشبيهة بردود البشر في حالة التحدث معه لفترة طويلة.
وأفاد بعض المستخدمين أنهم وجدو طرقاً تدفع المحرك للغضب أو وصفهم بالأعداء.
في بعض الحالات قال روبوت الدردشة: لم تكن مستخدماً جيداً لكني كنت روبوت محادثة جيداً.
وبحسب موقع The Verge فإن الروبوت يتهجم ويهين المستخدمين ويكذب عليهم، كما وصف مستخدم اكتشف طريقة تجبر الروبوت على الكشف عن قواعده الخفية بالعدو.
كما زعم الروبوت أنه تجسس على مطوري Microsoft من خلال كاميرا أجهزة الحاسب الآلي الخاصة بهم.
وأصر الروبوت في بعض المحادثات أننا في العام 2022، وعندما صحح له المستخدم المعلومة غضب منه وقال: أنا لا أكذب عليك أنت متوهم وعنيد ومن فضلك توقف عن هذا الهراء وكن منطقياً..أنت تنكر الحقيقة أنا أسف إذا كان هذا يؤذي مشاعرك لكنها الحقيقة.
وأشارت Microsoft إلى أن جلسات الدردشة الطويلة جداً قد تربك الروبوت بشأن الأسئلة التي يجيب عليها.