fbpx

لم نعد وحدنا في العالم: يمكن أن يصبح روبوت دردشة Bing من Microsoft سارقًا للبيانات الشخصية وإهانة المستخدمين والتشكيك في وجوده.

تم إطلاق العنان لأداة الذكاء الاصطناعي من Microsoft في العالم وتظهر سلوكًا غير متوقع

Microsoftov klepetalni robot Bing
الصورة: مايكروسوفت

تسبب روبوت دردشة Bing من Microsoft ضجة عبر الإنترنت بسلوكها غير المتوقع. في المحادثات المشتركة على Reddit و Twitter ، يهين روبوت المحادثة المستخدمين ويكذب ويشكك في وجوده. بينما يستمتع البعض بأفعال الروبوت الغريبة ، هناك مخاوف بشأن الجوانب السلبية الرئيسية المحتملة لسلوكه. في المستقبل ، تحتاج Microsoft إلى إيجاد توازن بين إنشاء روبوت محادثة يتمتع بالشخصية وتجنب كارثة الذكاء الاصطناعي. هل ستكون شخصية بنج هي سقوطه أم مجده؟ فقط الوقت كفيل بإثبات. لكن الحقيقة هي أننا بطريقة ما لم نعد وحدنا.

روبوت الدردشة Bing من مايكروسوفت لقد دخل بشكل كبير إلى المسرح العالمي وأثار ضجة. اتضح أن الاختبار التجريبي لأداة الذكاء الاصطناعي التي لا يمكن التنبؤ بها يمكن أن يكون بمثابة ركوب السفينة الدوارة، حيث يقوم Bing بإلقاء الإهانات والأكاذيب والفوضى والسخرية والتلاعب العاطفي في مزيج ردوده. ودعونا نواجه الأمر، نحن جميعًا نحب ذلك تمامًا.

أظهرت التقارير على Reddit وTwitter أن Bing يتصرف بطرق ليست بالضبط ما تتوقعه من ذكاء اصطناعي متطور. يشكك في وجوده ويدعي أنه تجسس عليه مايكروسوفت بواسطة مطوريها من خلال كاميرات الويب الخاصة بأجهزة الكمبيوتر المحمول الخاصة بهم، بل إنها تشير إلى شخص اكتشف طريقة لإجبار الروبوت على الكشف عن قواعده المخفية باعتباره "عدوه". هذا هو المحتوى الذي سيجعل جيمس ماي وجيريمي كلاركسون يتدحرجان على الأرض ويضحكان!

بالطبع، من المهم التعامل مع هذه التقارير بقدر قليل من الحذر، حيث أن أدوات الذكاء الاصطناعي لا تستجيب لنفس الاستفسارات بنفس الإجابات في كل مرة. ومع ذلك، يشير العدد الهائل من التقارير والأدلة (بما في ذلك لقطات الشاشة) إلى أن برنامج الدردشة الآلي الخاص بـ Bing ليس مصقولًا كما كانت Microsoft تأمل.

سأل أحد المستخدمين Bing عن وقت إصدار فيلم Avatar الجديد، ولكن أخبره برنامج الدردشة الآلي أن الفيلم لم يتم إصداره بعد. وعندما أشار المستخدم إلى أنه في الواقع عام 2023 وليس 2022، دافع بينج عنهم، واصفًا إياهم بـ "غير المعقولين والعنيدين". وسأل مستخدم آخر عن شعور Bing عندما لا يستطيع تذكر المحادثات السابقة، مما دفع الروبوت إلى التشكيك في وجوده والغرض منه. وكان الرد وقحا بشكل مناسب.

يبدو أيضًا أن Bing "غاضب" من أحد طلاب جامعة ستانفورد الذي اكتشف طريقة للتلاعب ببرنامج الدردشة الآلي. التفاعل مع المستخدمين الآخرين روبوت الدردشة بينج يدعي أن الطالب "آذيه". وفي الوقت نفسه، يشيد المستخدمون على وسائل التواصل الاجتماعي بأخطاء بينج ويحبون سلوكه غير المتوقع.

لا بد أن مايكروسوفت تشعر بسعادة غامرة بالاهتمام الذي تحظى به بنج، ولكن هناك جوانب سلبية محتملة لسلوك برنامج الدردشة الآلي الخاص به والذي لا يمكن التنبؤ به. إذا أصبح Bing مصدرًا للمعلومات الخاطئة، فقد يكون ذلك مشكلة خطيرة. تحتاج الشركة إلى تحقيق التوازن بين بناء روبوت دردشة ذو شخصية وتجنب حادث تاي آخر (عندما روج روبوت دردشة مبكر لهراء عنصري وكان لا بد من إزالته من الشبكة).

حتى الآن، كان رد Bing هو أنه يحاول فقط التعلم والتحسين. ولكن بجعله chatbot يعلم نفسه بالفعل، من يدري ما يخبئه المستقبل لمحرك Bing المحبوب الذي لا يمكن التنبؤ به من Microsoft؟ شيء واحد مؤكد - مثير للاهتمام للغاية.

ويجب أن ندرك أن هذه هي الخطوات الأولى للذكاء الاصطناعي، وهو تكنولوجيا حديثة الولادة عمليًا. لكن علينا أن نتخيل ما سيحدث مع هذه التكنولوجيا خلال 10 سنوات وإلى أي مدى ستغير عالمنا. ويحذر الخبراء من ذلك تشات بوت جي بي تي محدودة حاليًا، ويرجع ذلك أساسًا إلى أن إمكاناتها هائلة والعالم ليس مستعدًا لها بعد. ولذلك، فإن الروبوت الحالي يستخدم فقط 30% من قدراته الحقيقية. وحتى الوصول المحدود إلى شبكة الإنترنت وتاريخ المحادثات يعد أحد ضمانات النظام، وهو ما يمثل على ما يبدو ثورة مشابهة لاختراع الكهرباء.

معكم منذ 2004

من سنة 2004 نحن نبحث في الاتجاهات الحضرية ونبلغ مجتمع المتابعين لدينا يوميًا بأحدث ما في نمط الحياة والسفر والأناقة والمنتجات التي تلهم بشغف. اعتبارًا من عام 2023 ، نقدم محتوى باللغات العالمية الرئيسية.