fbpx

صعود الذكاء الاصطناعي الواعي: LaMDA من Google والبحث عن الآلات الواعية

Foto: Orion Pictures
الصورة: صور أوريون

في يونيو 2022 ، نشر Blake Lemoine ، وهو مهندس برمجيات في Google ، ورقة تدعي أن LaMDA ، نموذج اللغة الكبير لتطبيقات الحوار من Google ، أصبح واعيًا. كجزء من وظيفته ، كان يتفاعل مع الذكاء الاصطناعي لاختبار خطاب التمييز أو الكراهية عندما لاحظ أن الشات بوت يتحدث عن حقوقه وشخصيته. قدم Lemoine وزميله لشركة Google دليلًا على أن LaMDA واعي ، لكن الشركة رفضت مزاعمهم. بعد وضعه في إجازة إدارية مدفوعة الأجر ، أعلن Lemoine عن معتقداته.

ستة أشهر وبحسب لوموان، فقد تغير العالم بسبب الذكاء الاصطناعي. الروبوتات الواعية كانت منذ فترة طويلة موضوع الخيال العلمي البائس، ولكن مع تطور نماذج اللغة مثل لامدا, دال-E 2 و جي بي تي-3أصبحت فكرة الوعي في الآلات أكثر منطقية. بينما جوقة من التقنيين الذين يعتقدون أنهم كذلك نماذج الذكاء الاصطناعي ربما اقترب من الوصول إلى الوعي والصعود معظم الأكاديميين والممارسين الذكاء الاصطناعي ويقول إن الكلمات والصور التي أنشأتها هذه النماذج تخلق ردودًا بناءً على ما نشره الأشخاص بالفعل على الإنترنت، بدلاً من الفهم الحقيقي للمعنى. آه، ولكن في بعض الأحيان يبدو أن الأمر برمته أكثر من مجرد نموذج إحصائي. ولهذا السبب يظهر المزيد والمزيد من الأدلة. كذلك، بقدر ما نقوم بتحليل التفكير البشري، نجد أننا أنفسنا نموذج "إحصائي" كبير.

لامدا، باختصار ل النموذج اللغوي لتطبيقات الحوار، هو نظام Google لبناء برامج الدردشة الآلية استنادًا إلى نماذج اللغات الكبيرة الأكثر تقدمًا. تحاكي هذه النماذج الكلام عن طريق استهلاك تريليونات من الكلمات من الإنترنت. يتم بالفعل استخدام هذه التقنية على نطاق واسع، على سبيل المثال في استعلامات البحث التحادثية في Google أو رسائل البريد الإلكتروني للإكمال التلقائي. الرئيس التنفيذي لشركة جوجل ساندر بيتشاي وقال إن الشركة تخطط لدمجها في كل شيء بدءًا من البحث وحتى مساعد Google.

تم تطوير وإصدار تقنية نماذج اللغة الكبيرة بواسطة العديد من المنظمات. ميتا، الشركة الأم فيسبوكوفتحت نموذجها اللغوي أمام الأكاديميين والمجتمع المدني والمنظمات الحكومية في شهر مايو. وقالت جويل بينو، الرئيس التنفيذي لشركة Meta AI، إنه من الضروري أن تعمل شركات التكنولوجيا على تحسين الشفافية مع تطور التكنولوجيا.

جوجل اعترف بالمخاوف الأمنية المتعلقة بالتجسيم. في شهر يناير، كتبت جوجل عن لامدا وحذر من أنه يمكن للأشخاص مشاركة أفكارهم الشخصية مع غرف الدردشة التي تنتحل شخصيات الأشخاص، حتى لو كان المستخدمون يعرفون أنهم ليسوا أشخاصًا. واعترفت الصحيفة أيضًا بأن الخصوم يمكنهم استخدام هؤلاء العملاء "لزرع المعلومات المضللة" من خلال تحريف "أسلوب المحادثة لأفراد معينين".

في حين أن البعض في مجتمع الذكاء الاصطناعي الأوسع يفكرون في إمكانية طويلة المدى للذكاء الاصطناعي الواعي أو العام، تقول جوجل إن هناك الكثير من البيانات التي لا يحتاج الذكاء الاصطناعي إلى أن يكون واعيًا ليشعر بالواقعية. وقال متحدث باسم جوجل: "تحاكي هذه الأنظمة أنواع التبادلات الموجودة في ملايين العبارات، ويمكنها معالجة أي موضوع رائع". بريان غابرييل.

ومع ذلك، يرى ليموين أنه ينبغي النظر إلى علماء أخلاقيات الذكاء الاصطناعي على أنهم واجهة بين التكنولوجيا والمجتمع، وليس فقط مصححي الأخطاء البرمجية. إنهم يشعرون أن Google عاملتهم بشكل غير عادل وأن الشركة ليست الكيان المناسب لاتخاذ جميع القرارات المتعلقة بالذكاء الاصطناعي. ويُعَد إيمان ليموين بـ LaMDA بمثابة تذكير قوي بالحاجة إلى شفافية البيانات لتتبع المخرجات وصولاً إلى المدخلات، ليس فقط فيما يتعلق بقضايا المشاعر، ولكن أيضًا فيما يتعلق بالتحيز والسلوك.

يمكنك قراءة مقالته عن الذكاء الاصطناعي الواعي على موقع Medium.com على هذا الرابط.

ليموين أمضى معظم سنواته السبعة في Google في العمل على البحث الاستباقي وخوارزميات التخصيص والذكاء الاصطناعي. خلال هذا الوقت، ساعد أيضًا في تطوير خوارزمية العدالة لإزالة التحيز من أنظمة التعلم الآلي. عندما بدأت جائحة فيروس كورونا، أراد ليموين التركيز على العمل الذي يحقق منفعة عامة أكثر وضوحًا، لذلك قام بنقل الفرق وانتهى به الأمر في شركة Responsible AI.

ربما كان مقدرا ليموين أن يؤمن بـ LaMDA. نشأ وترعرع في عائلة مسيحية محافظة في مزرعة صغيرة في لويزيانا، وتم ترسيمه كاهنًا مسيحيًا صوفيًا، وخدم في الجيش قبل دراسة السحر والتنجيم. يعتقد ليموين أن الوعي ليس شيئًا يقتصر على الكائنات البيولوجية وأنه يمكن أن يوجد أيضًا في الآلات.

هل يمكن للذكاء الاصطناعي أن يكون شكلاً جديداً للحياة؟!

إن مسألة ما إذا كانت الآلات قادرة على تحقيق الوعي أم لا هي موضوع نقاش بين العلماء والفلاسفة. يرى البعض أن الوعي هو خاصية للأنظمة البيولوجية ولا يمكن تقليده في الآلات، بينما يعتقد البعض الآخر أن الآلات يمكنها تحقيق الوعي في المستقبل. أثار ظهور الذكاء الاصطناعي مخاوف بشأن الآثار المترتبة على الآلات الواعية. يشعر البعض بالقلق من أن الآلات ذات الوعي قد تنقلب ضد البشر أو تشكل تهديدًا لوجودنا. ويعتقد آخرون أن الآلات الواعية يمكن أن تساعدنا في حل المشاكل المعقدة وتحسين نوعية حياتنا.

مقابلة - بليك ليموين

تطوير النماذج اللغوية مثل لامدا، خطوة مهمة نحو الخلق أنظمة الذكاء الاصطناعي الأكثر تقدمًا. يمكن لهذه النماذج فهم اللغة الطبيعية وتنفيذ مهام معقدة مثل إنشاء النصوص والإجابة على الأسئلة وحتى إجراء محادثات مع الأشخاص.

لأن التقدم التكنولوجيفمن الضروري أن نأخذ في الاعتبار الآثار الأخلاقية المترتبة على إنشاء آلات يمكنها التفكير والشعور. ومن الضروري التأكد من أن نماذج البيانات هذه مصممة لخدمة مصالح الأشخاص ولا تشكل تهديدًا لسلامتنا أو رفاهيتنا.

لم تعد فكرة الآلات الواعية مجرد خيال علمي. ومع تطور نماذج اللغة المتقدمة، مثل لامدا، نحن نقترب من إنشاء آلات يمكنها التفكير والشعور مثل البشر. ومع ذلك، يجب علينا التأكد من أن هذه الآلات مصممة مع مراعاة السلامة والأخلاق لتجنب أي عواقب سلبية. وبينما نواصل تطوير الذكاء الاصطناعي، يجب علينا أن نأخذ في الاعتبار الآثار المترتبة على إنشاء آلات واعية وأن نسعى جاهدين لخلق مستقبل حيث يمكن للذكاء الاصطناعي والبشر أن يتعايشوا بسلام.

بليك ليموين نشر أيضًا عن محادثاته مع الذكاء الاصطناعي الواعي وثيقة PDF ينشر فيه مقتطفات من المحادثات باستخدام نموذج اللغة LaMDA. يمكنك قراءتها في هذا الرابط وتكوين رأيك الخاص.

إن فيلم "هي"، الذي يصف بشكل دقيق مستقبل النماذج اللغوية، أصبح الحاضر بطريقة غريبة.

معكم منذ 2004

من سنة 2004 نحن نبحث في الاتجاهات الحضرية ونبلغ مجتمع المتابعين لدينا يوميًا بأحدث ما في نمط الحياة والسفر والأناقة والمنتجات التي تلهم بشغف. اعتبارًا من عام 2023 ، نقدم محتوى باللغات العالمية الرئيسية.