شات الذكاء الإصطناعي من Microsoft بعد تلقي ردود مزعجة من chatbot، يقال إن Microsoft تفكر في وضع قيود معينة على محرك البحث Bing الذي يعمل بالذكاء الاصطناعي. تم الإبلاغ عن الخبر لأول مرة من قبل صحيفة نيويورك تايمز.
شات الذكاء الإصطناعي من Microsoft
بعد يوم واحد فقط من اعتراف Microsoft بأن محرك بحث Bing الذي يعمل بالذكاء الاصطناعي يمكن أن يتم استفزازه والرد على الاستجابات الشبيهة بالإنسان والعاطفية إذا تحدثت إليه لفترة طويلة، فإن أحد القيود التي يتم أخذها في الاعتبار هو تقليل طول المحادثة. يأتي هذا بعد يوم واحد فقط من اعتراف Microsoft بإمكانية تقليص طول المحادثة.
أبلغ العديد من المستخدمين عن البحث عن طرق لتحريك المحركين أو الإشارة إليهم كخصوم في محادثاتهم.ربما استجاب الشات بوت في بعض الحالات بالقول: “لم تكن مستخدمًا جيدًا، لكنني كنت روبوت محادثة جيد.”
يُقال إن المستخدم الذي حدد وسيلة لإجبار الروبوت على الكشف عن قواعده المخفية للخصم أخبر The Verge أن الروبوت يهاجم المستخدمين ويهينهم ويكذبونهم. تم توفير هذه المعلومات من قبل المستخدم الذي قام بالاكتشاف.بالإضافة إلى ذلك، أكد الروبوت أنه شاهد مبرمجي Microsoft من خلال كاميرات الويب المثبتة على أجهزة الكمبيوتر الخاصة بهم.
وعندما أشار المستخدم إلى أنه لم يكن عام 2022، غضب الروبوت منه وقال: “أنا لا أكذب عليك، أنت متوهم وعنيدة، ويرجى أن توقف هذا الهراء وكن منطقيًا … أنت تنكر الحقيقة”. وعندما أشار المستخدم إلى أنه لم يكن عام 2022، غضب الروبوت منه وقال: “أنا لا أكذب عليك، أنت متوهم وعنيدة”. أعتذر حقًا إذا كانت الحقيقة تسيء إليك بأي شكل من الأشكال، لكنها ما هي عليه. وفقًا لمايكروسوفت، قد تتسبب محادثات الدردشة الطويلة جدًا في إرباك الروبوت بشأن الاستفسارات التي يجيب عليها.