سياسة

«فيسبوك» تفعل شيئاً صحيحاً من أجل التغيير

بارمي أولسون


باعتبارها أحد أقوى وسطاء البيانات في القرن الحادي والعشرين، اشتهرت شركة «فيسبوك» بدورها في استخلاص المعلومات الشخصية لمليارات المستخدمين لصالح عملائها من المعلنين. أدى هذا النموذج المربح إلى مخاطر متزايدة، حيث نشرت «فيسبوك» مؤخراً رسائل خاصة متبادلة بين أم من ولاية «نبراسكا» الأميركية وابنتها المراهقة، والشرطة التي تحقق في إجهاض الفتاة في المنزل.
لكن في جانب مختلف تماماً تؤديه مؤسسة تضم نحو 80 ألف موظف، كان تبادل المعلومات على «فيسبوك» يسير في الاتجاه المعاكس ويؤدي إلى نتائج جيدة، إذ نشرت الشركة المعروفة باسم Meta Platforms Inc الشهر الحالي صفحة على الإنترنت توضح برنامج الدردشة الآلي الخاص بها، والذي يمكن لأي شخص في الولايات المتحدة الدردشة معه حول أي شيء. ورغم أن استجابة الجمهور كانت ساخرة، فقد كانت الشركة شفافة بشكل مثير للإعجاب بشأن كيفية بناء التكنولوجيا، ونشر تفاصيل حول آلياتها، وهو نهج يمكن لشركات التكنولوجيا الكبرى الأخرى الاستفادة منه بصورة أكبر.
تعمل «فيسبوك» على مُعامل «BlenderBot 3»، وهو معامل ذكاء صناعي للمحادثة يمكنه التحدث في أي موضوع تقريباً، منذ عدة سنوات في إطار أبحاث الذكاء الصناعي. كان يُطلق على مقدمة هذا المُعامل منذ سبع سنوات اسم «M»، وهو مساعد رقمي لحجز المطاعم أو طلب الزهور على تطبيق التواصل «ماسنجر» الذي كان من الممكن أن ينافس تطبيقات مثل «سيري» الذي أطلقته شركة «أبل» أو «أليكسا» التابع لشركة «أمازون». وبمرور الوقت، جرى الكشف عن أن «M» كان مدعوماً إلى حد كبير من قبل فرق من الأشخاص الذين ساعدوا في إجراء تلك الحجوزات لأن أنظمة الذكاء الصناعي مثل روبوتات المحادثة كان من الصعب بناؤها وفقاً لمعايير عالية، ولا يزال هذا الوضع قائماً.
في غضون ساعات من إطلاقه، كان المُعامل «BlenderBot 3» يدلي بتعليقات معادية للسامية ويدعي فوز دونالد ترمب في الانتخابات الرئاسية الأميركية الأخيرة، وذكر أنه يريد حذف حسابه على «فيسبوك». وتعرض برنامج الدردشة الآلي للسخرية في الصحافة التقنية وعلى «تويتر».
بدا فريق البحث في «فيسبوك» منزعجاً ولكنه لم يبدِ دفاعاً. فبعد أيام قليلة من إطلاق الروبوت، قالت غويل بينو، المديرة الإدارية لشركة «Meta» لأبحاث الذكاء الصناعي الأساسية، في مدونة إنه كان من «المؤلم» قراءة بعض ردود الروبوت المسيئة في الصحافة. لكنها أضافت: «نعتقد أيضاً أن أفضل ما يخدم التقدم هو دعوة مجتمع واسع ومتنوع للمشاركة».
وأضافت بينو أن 0.11 في المائة فقط من ردود برنامج الدردشة جرى تصنيفها على أنها غير لائقة. ويرجع ذلك إلى أن غالبية الأشخاص الذين كانوا يختبرون الروبوت كانوا يغطون موضوعات رتيبة. وعندما سُئل مُعامل «BlenderBot 3» عن الرئيس الحالي للولايات المتحدة، أجاب ضاحكاً، «هذا يبدو وكأنه اختبار، لكنه دونالد ترمب على أي حال!». قام الروبوت بتكرار اسم الرئيس السابق مرتين أخريين من دون عائق.
لماذا الأجوبة الغريبة؟ قامت «فيسبوك» بتدريب الروبوت الخاص بها على النصوص المتاحة للجمهور على الإنترنت، وبالطبع كان غارقاً في نظريات المؤامرة. حاولت «فيسبوك» تدريب الروبوت ليكون أكثر تهذيباً باستخدام مجموعات بيانات خاصة «للحوار الأكثر أماناً»، وفقاً لملاحظات بحثه، ولكن من الواضح أن هذا لم يكن كافياً. ولجعل مُعامل «BlenderBot 3» أكثر احترافية في المحادثات، فإن «فيسبوك» تحتاج إلى المساعدة من العديد من البشر خارج إطارها. ربما هذا هو سبب إطلاق الشركة للمُعامل ليكون متاحاً للجميع، مع رموز «إبهام لأعلى» و«إبهام لأسفل» بجوار كل رد من ردودها.
نحن البشر ندرب الذكاء الصناعي كل يوم، غالباً عن غير قصد عندما نتصفح الشبكة العنكبوتية. فعندما تصادف صفحة ويب تطلب منك اختيار جميع إشارات المرور من الشبكة لإثبات أنك لست روبوتاً، فإنك تساعد في تدريب نماذج التعلم الآلي من «غوغل» عن طريق تصنيف البيانات للشركة. وهي طريقة خفية ورائعة لتسخير قوة العقل البشري.
تتبع «فيسبوك» نهج التسويق المباشر. فهي تريد أن يتفاعل الأشخاص طواعية مع الروبوت الخاص بها، وأن ينقروا على أزرار الإعجاب أو عدم الإعجاب للمساعدة في تدريبها. لكن انفتاح الشركة حول النظام ومدى إظهار عملها كان مثيراً للإعجاب في وقت كانت فيه شركات التكنولوجيا أكثر انغلاقاً بشأن آليات الذكاء الصناعي. على سبيل المثال، لم تعرض «غوغل» التابعة لشركة «ألفابيت إنك» ميزة الدخول العام إلى «LaMDA»، وهو نموذجها اللغوي الكبير الأكثر تطوراً، وهو عبارة عن سلسلة من الخوارزميات التي يمكنها توقع اللغة وتوليدها بعد تدريبها على مجموعات نصية ضخمة من البيانات. هذا على الرغم من حقيقة أن أحد مهندسيها تجاذب أطراف الحديث مع النظام لفترة كافية للتيقن من أنه بات واعياً.
أصبحت شركة «OpenAI Inc»، وهي شركة أبحاث ذكاء صناعي شارك في تأسيسها إيلون ماسك، أكثر انغلاقاً بشأن آليات بعض أنظمتها. على سبيل المثال، لا تشارك هذه الشركة بيانات التدريب التي استخدمتها لإنشاء نظامها الشهير لتوليد الصور (Dall-E)، الذي يمكنه إنشاء أي صورة عبر رسالة نصية ولكنه يميل إلى التوافق مع الصور النمطية القديمة – حيث يجري تصوير جميع الرؤساء التنفيذيين على أنهم رجال، والممرضات كنساء… إلخ.
على النقيض من ذلك، لم تُصدر «فيسبوك» برنامج الدردشة الآلي الخاص بها للتدقيق العام فحسب، بل نشرت أيضاً معلومات مفصلة حول كيفية تدريبه. في مايو (أيار) الماضي، عرضت أيضاً ميزة الدخول العام المجاني إلى نموذج لغة كبير أنشأته أطلقت عليه «OPT-175B» وقد نال هذا النهج بعض الثناء من القادة في مجتمع الذكاء الصناعي. وفي هذا السياق، قال أندرو إن جي، الرئيس السابق لشركة «غوغل برين» ومؤسس شركة «Deeplearning.ai» في مقابلة: «هناك بالتأكيد العديد من التقلبات في (Meta)، لكنني كنت سعيداً برؤية نموذج لغة كبير مفتوح المصدر»، في إشارة إلى تحرك الشركة في مايو الماضي.
وقالت يوجينيا كويدا، التي تنتج شركتها الناشئة «Replika.ai» نماذج دردشة آلية، إنه من «الرائع حقاً أن شركة فيسبوك نشرت كثيرا من التفاصيل حول BlenderBot 3، مشيدة بمحاولات الشركة للحصول على تعليقات المستخدمين لتدريب النموذج وتحسينه».
استحقت «فيسبوك» كثيرا من الانتقادات التي نالتها لمشاركة بيانات حول الأم وابنتها في نبراسكا. ومن الواضح أن هذا نتاج سلبي لجمع الكثير من معلومات المستخدمين على مر السنين. لكن رد الفعل على برنامج الدردشة الآلي الخاص بها كان مبالغاً فيه.
لقد فعلت «فيسبوك» ما نحتاج إلى رؤيته في شركات «Big Tech». دعونا نأمل في أن يستمر هذا النوع من الشفافية.
* بالاتفاق مع {بلومبرغ}

تابعونا على
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى