كيف أدمن Facebook على نشر المعلومات الخاطئة

11

كان خواكين كوينونيرو كانديلا ، مدير الذكاء الاصطناعي في فيسبوك ، يعتذر لجمهوره.

كان ذلك في 23 آذار (مارس) 2018 ، بعد أيام فقط من الكشف عن أن شركة Cambridge Analytica ، وهي شركة استشارية عملت في حملة دونالد ترامب للانتخابات الرئاسية لعام 2016 ، قد اختطفت خلسة البيانات الشخصية لعشرات الملايين من الأمريكيين من موقع Facebook الخاص بهم. في محاولة للتأثير على طريقة تصويتهم. كان هذا أكبر انتهاك للخصوصية في تاريخ Facebook ، وكان من المقرر سابقًا أن يتحدث Quiñonero في مؤتمر حول ، من بين أمور أخرى ، “تقاطع الذكاء الاصطناعي والأخلاق والخصوصية” في الشركة. لقد فكر في الإلغاء ، لكن بعد مناقشته مع مدير اتصالاته ، احتفظ بالوقت المخصص له.

عندما صعد لمواجهة الغرفة ، بدأ بإدخاله. يتذكر قوله: “لقد مررت للتو بأصعب خمسة أيام في فترة عملي في Facebook”. “إذا كان هناك انتقادات ، فسوف أقبلها.”

ستطلق فضيحة Cambridge Analytica أكبر أزمة دعاية على Facebook على الإطلاق. ضاعفت المخاوف من أن الخوارزميات التي تحدد ما يراه الناس على المنصة تضخّم الأخبار المزيفة وخطاب الكراهية ، وأن قراصنة روس قد استخدموها كسلاح لمحاولة التأثير في الانتخابات لصالح ترامب. بدأ الملايين في حذف التطبيق ؛ موظف غادروا احتجاجا ؛ انخفضت القيمة السوقية للشركة بأكثر من 100 مليار دولار بعد إعلان أرباح شهر يوليو.

في الأشهر التالية ، بدأ مارك زوكربيرغ في الاعتذار. اعتذر عن عدم اتخاذ “نظرة واسعة بما فيه الكفاية” لمسؤوليات Facebook ، وعن أخطائه كمدير تنفيذي. داخليًا ، بدأت شيريل ساندبرج ، كبير مسؤولي التشغيل ، تدقيقًا للحقوق المدنية لمدة عامين للتوصية بالطرق التي يمكن للشركة من خلالها منع استخدام منصتها لتقويض الديمقراطية.

أخيرًا ، طلب مايك شروبر ، كبير مسؤولي التكنولوجيا في Facebook ، من Quiñonero أن يبدأ فريقًا بتوجيه كان غامضًا بعض الشيء: لدراسة التأثير المجتمعي لخوارزميات الشركة. أطلقت المجموعة على نفسها اسم المجتمع ومختبر الذكاء الاصطناعي (SAIL) ؛ في العام الماضي ، تم دمجها مع فريق آخر يعمل على قضايا خصوصية البيانات لتشكيل ذكاء اصطناعي مسؤول.

كان Quiñonero اختيارًا طبيعيًا للوظيفة. هو ، مثل أي شخص آخر ، كان المسؤول عن موقع Facebook كقوة للذكاء الاصطناعي. خلال السنوات الست التي قضاها في Facebook ، أنشأ بعضًا من الخوارزميات الأولى لاستهداف المستخدمين بمحتوى مصمم بدقة وفقًا لاهتماماتهم ، ثم قام بنشر هذه الخوارزميات في جميع أنحاء الشركة. الآن سيكون تفويضه هو جعلهم أقل ضررًا.

أشار Facebook باستمرار إلى الجهود التي يبذلها Quiñonero وآخرين في سعيه لإصلاح سمعته . إنه يهرول بانتظام على مختلف القادة للتحدث إلى وسائل الإعلام حول الإصلاحات الجارية. في مايو من عام 2019 ، منحت سلسلة من المقابلات مع Schroepfer لصحيفة New York Times ، والتي منحت الشركة ملفًا شخصيًا إنسانيًا لمسؤول تنفيذي حساس وحسن النية يسعى للتغلب على التحديات التقنية المتمثلة في تصفية المعلومات المضللة وخطاب الكراهية من تيار من المحتوى بلغ مليارات القطع في اليوم. هذه التحديات صعبة للغاية لدرجة أنها تجعل شرويفر عاطفيًا ، كتبت صحيفة التايمز: “أحيانًا يبكي هذا الأمر”.

في ربيع عام 2020 ، كان دوري على ما يبدو. سأل آري إنتين ، مدير اتصالات الذكاء الاصطناعي في Facebook ، في رسالة بريد إلكتروني عما إذا كنت أرغب في إلقاء نظرة أعمق على عمل الذكاء الاصطناعي في الشركة. بعد التحدث إلى العديد من قادة الذكاء الاصطناعي ، قررت التركيز على Quiñonero. بسعادة ملزمة Entin. ليس فقط قائد فريق الذكاء الاصطناعي المسؤول ولكن أيضًا الرجل الذي جعل Facebook شركة مدفوعة بالذكاء الاصطناعي ، كان Quiñonero خيارًا قويًا لاستخدامه كصبي ملصق.

بدا طبيعيًا اختيار الموضوع بالنسبة لي أيضًا. في السنوات التي تلت تشكيل فريقه في أعقاب فضيحة Cambridge Analytica ، ازدادت المخاوف بشأن انتشار الأكاذيب وخطاب الكراهية على Facebook. في أواخر عام 2018 ، اعترفت الشركة بأن هذا النشاط ساعد في تأجيج حملة إبادة جماعية ضد المسلمين في ميانمار لعدة سنوات. في عام 2020 ، بدأ Facebook في اتخاذ إجراءات متأخرة ضد منكري الهولوكوست ومناهضي التطعيمات وحركة المؤامرة QAnon. كانت كل هذه الأكاذيب الخطيرة تنتشر بفضل قدرات الذكاء الاصطناعي التي ساعد كينيونيرو في بنائها. لم يتم إنشاء الخوارزميات التي تقوم عليها أعمال Facebook لتصفية ما هو خاطئ أو تحريضي ؛ تم تصميمها لجعل الأشخاص يشاركون ويتفاعلون مع أكبر قدر ممكن من المحتوى من خلال عرض الأشياء التي من المرجح أن تثير غضبهم أو مضايقتهم. إصلاح هذه المشكلة ، بالنسبة لي ، بدا وكأنه منطقة أساسية للذكاء الاصطناعي المسؤول.

بدأت في إجراء مكالمات فيديو مع Quiñonero بانتظام. تحدثت أيضًا إلى المديرين التنفيذيين في Facebook ، والموظفين الحاليين والسابقين ، وأقران الصناعة ، والخبراء الخارجيين. تحدث الكثيرون بشرط عدم الكشف عن هويتهم لأنهم وقعوا اتفاقيات عدم إفشاء أو خوفوا من الانتقام. أردت أن أعرف: ما الذي كان يفعله فريق Quiñonero لكبح الكراهية والأكاذيب على منصته؟

Joaquin Quinonero Candela
خواكين كوينونيرو كانديلا خارج منزله في منطقة الخليج ، حيث يعيش مع زوجته وأطفاله الثلاثة.
WINNI WINTERMEYER

لكن إنتين وكينونيرو كان لهما أجندة مختلفة. في كل مرة حاولت فيها طرح هذه المواضيع ، يتم إسقاط طلباتي للتحدث عنها أو إعادة توجيهها. لقد أرادوا فقط مناقشة خطة فريق الذكاء الاصطناعي المسؤول لمعالجة نوع واحد محدد من المشاكل: تحيز الذكاء الاصطناعي ، حيث تميز الخوارزميات ضد مجموعات مستخدمين معينة. مثال على ذلك هو خوارزمية استهداف الإعلانات التي تعرض فرص عمل أو سكن معينة للأشخاص البيض ولكن ليس للأقليات.

بحلول الوقت الذي اقتحم فيه الآلاف من مثيري الشغب مبنى الكابيتول الأمريكي في يناير ، نظموا جزئيًا Facebook ، الذي تغذيه الأكاذيب حول الانتخابات المسروقة التي انتشرت عبر المنصة ، كان واضحًا من محادثاتي أن فريق الذكاء الاصطناعي المسؤول فشل في إحراز تقدم ضد المعلومات المضللة وخطاب الكراهية لأنه لم يجعل هذه المشاكل محور تركيزه الأساسي. الأهم من ذلك ، أدركت ، إذا حاولت ذلك ، فسيتم إعدادها للفشل.

السبب بسيط. كل ما تفعله الشركة وتختار عدم القيام به ينبع من دافع واحد: رغبة زوكربيرج التي لا هوادة فيها في النمو. شحنت خبرة Quiñonero في الذكاء الاصطناعي هذا النمو. تم تصنيف فريقه في استهداف التحيز للذكاء الاصطناعي ، كما علمت في تقاريري ، لأن منع مثل هذا التحيز يساعد الشركة على تجنب اللوائح المقترحة التي قد تعيق هذا النمو ، إذا تم إقرارها. كما قامت قيادة Facebook مرارًا وتكرارًا بإضعاف أو إيقاف العديد من المبادرات التي تهدف إلى إزالة المعلومات الخاطئة على المنصة لأن القيام بذلك من شأنه أن يقوض هذا النمو.

بعبارة أخرى ، فإن عمل فريق الذكاء الاصطناعي المسؤول – بغض النظر عن مزاياه بشأن المشكلة المحددة المتمثلة في معالجة التحيز في الذكاء الاصطناعي – غير ذي صلة بشكل أساسي بإصلاح المشاكل الأكبر المتمثلة في المعلومات المضللة والتطرف والاستقطاب السياسي. ونحن جميعًا من يدفع الثمن.

“عندما تكون في مجال تعظيم المشاركة ، فأنت غير مهتم بالحقيقة . أنت لست مهتمًا بالضرر أو الانقسام أو المؤامرة. في الواقع ، هؤلاء هم أصدقاؤك “، كما يقول هاني فريد ، الأستاذ في جامعة كاليفورنيا ، بيركلي الذي يتعاون مع Facebook لفهم المعلومات المضللة القائمة على الصور والفيديو على المنصة.

“أنهم افعل دائمًا ما يكفي لتتمكن من نشر البيان الصحفي. لكن مع استثناءات قليلة ، لا أعتقد أنه تمت ترجمته بالفعل إلى سياسات أفضل. إنهم لا يتعاملون حقًا مع المشكلات الأساسية “.

في مارس 2012 ،

زار Quiñonero صديقًا في Bay Area. في ذلك الوقت ، كان مديرًا في مكتب Microsoft Research في المملكة المتحدة ، حيث قاد فريقًا يستخدم التعلم الآلي لجذب المزيد من الزوار للنقر على الإعلانات التي يعرضها محرك بحث الشركة ، Bing. كانت خبرته نادرة ، وكان عمر الفريق أقل من عام. التعلم الآلي ، وهو مجموعة فرعية من الذكاء الاصطناعي ، لم يثبت بعد نفسه كحل لمشاكل الصناعة واسعة النطاق. استثمر عدد قليل من عمالقة التكنولوجيا في التكنولوجيا.

 

أراد صديق Quiñonero التباهي بصاحب عمله الجديد ، وهو أحد أهم الشركات الناشئة في وادي السيليكون: Facebook ، ثم ثماني سنوات ولديهم بالفعل ما يقرب من مليار مستخدم نشط شهريًا (أي أولئك الذين قاموا بتسجيل الدخول مرة واحدة على الأقل في الثلاثين يومًا الماضية). بينما كان Quiñonero يتجول في مقره الرئيسي في مينلو بارك ، شاهد مهندسًا وحيدًا يقوم بتحديث كبير للموقع ، وهو أمر كان سيشمل روتينًا كبيرًا في Microsoft. لقد كانت مقدمة لا تُنسى لروح زوكربيرج “تحرك بسرعة وحطم الأشياء”. كان Quiñonero مذهولًا من الاحتمالات. في غضون أسبوع ، كان قد مر بمقابلات ووقع عرضًا للانضمام إلى الشركة.

لم يكن وصوله قد تم في توقيت أفضل. كانت خدمة إعلانات Facebook في منتصف توسع سريع حيث كانت الشركة تستعد للاكتتاب العام في مايو. كان الهدف هو زيادة الإيرادات والاستحواذ على Google ، التي كانت لها نصيب الأسد في سوق الإعلانات عبر الإنترنت. يمكن أن يكون التعلم الآلي ، الذي يمكنه توقع الإعلانات التي سيكون لها صدى أفضل مع المستخدمين وبالتالي جعلهم أكثر فعالية ، الأداة المثالية. بعد فترة وجيزة من البداية ، تمت ترقية Quiñonero إلى إدارة فريق مشابه لذلك الذي كان يقوده في Microsoft.

Joaquin Quinonero Candela
بدأ Quiñonero بتربية الدجاج في أواخر عام 2019 كوسيلة للتخلص من شدة عمله.
WINNI WINTERMEYER

على عكس الخوارزميات التقليدية التي يصعب بترميز من قبل المهندسين ، فإن خوارزميات التعلم الآلي “تتدرب” على بيانات الإدخال لمعرفة الارتباطات داخلها. يمكن للخوارزمية المدربة ، والمعروفة باسم نموذج التعلم الآلي ، أتمتة القرارات المستقبلية. على سبيل المثال ، قد تتعلم خوارزمية تم تدريبها على بيانات النقرات على الإعلانات أن النساء ينقرن على إعلانات ملابس اليوغا أكثر من الرجال. سيعرض النموذج الناتج بعد ذلك المزيد من هذه الإعلانات على النساء. اليوم في شركة تعتمد على الذكاء الاصطناعي مثل Facebook ، ينشئ المهندسون نماذج لا حصر لها مع اختلافات طفيفة لمعرفة أيها يعمل بشكل أفضل في مشكلة معينة.

Facebook’s أعطت الكميات الهائلة من بيانات المستخدم ميزة كبيرة لـ Quiñonero. يمكن لفريقه تطوير نماذج تعلمت الاستدلال ليس فقط على وجود فئات واسعة مثل “النساء” و “الرجال” ، ولكن من الفئات الدقيقة جدًا مثل “النساء بين 25 و 34 الذين أحبوا صفحات Facebook المتعلقة باليوغا” ، واستهدفت إعلانات لهم. كلما كان الاستهداف أكثر دقة ، كانت فرصة النقرة أفضل ، الأمر الذي من شأنه أن يمنح المعلنين مزيدًا من الدفعة مقابل أموالهم.

في غضون عام طور فريقه هذه النماذج ، بالإضافة إلى أدوات تصميم ونشر برامج جديدة بشكل أسرع. قبل ذلك ، استغرق الأمر من مهندسي Quiñonero ستة إلى ثمانية أسابيع لبناء وتدريب واختبار نموذج جديد. الآن استغرق الأمر واحدًا فقط.

انتشرت أخبار النجاح بسرعة. أراد الفريق الذي عمل على تحديد المنشورات التي سيشاهدها مستخدمو Facebook الأفراد على خلاصاتهم الإخبارية الشخصية تطبيق نفس الأساليب. تمامًا كما يمكن تدريب الخوارزميات على التنبؤ بمن سينقر على الإعلان ، يمكن أيضًا تدريبهم على التنبؤ بمن يرغب في المنشور أو مشاركته ، ومن ثم إعطاء هذه المنشورات مكانة بارزة. إذا حدد النموذج أن شخصًا ما يحب الكلاب حقًا ، على سبيل المثال ، فستظهر مشاركات الأصدقاء حول الكلاب أعلى في موجز أخبار هذا المستخدم.

جذب نجاح Quiñonero مع موجز الأخبار – إلى جانب بحث جديد مثير للإعجاب حول الذكاء الاصطناعي يتم إجراؤه خارج الشركة – انتباه زوكربيرج وشرويفر. أصبح لدى Facebook الآن ما يزيد قليلاً عن مليار مستخدم ، مما يجعله أكبر بثماني مرات من أي شبكة اجتماعية أخرى ، لكنهم أرادوا معرفة كيفية مواصلة هذا النمو. قرر المدراء التنفيذيون الاستثمار بكثافة في الذكاء الاصطناعي والاتصال بالإنترنت والواقع الافتراضي.

قاموا بإنشاء فريقين للذكاء الاصطناعي. أحدهما كان FAIR ، وهو مختبر أبحاث أساسي من شأنه أن يطور قدرات التكنولوجيا الحديثة. الآخر ، التعلم الآلي التطبيقي (AML) ، سيدمج هذه القدرات في منتجات وخدمات Facebook. في ديسمبر 2013 ، بعد شهور من المغازلة والإقناع ، جند المدراء التنفيذيون Yann LeCun ، أحد أكبر الأسماء في هذا المجال ، لقيادة FAIR. بعد ثلاثة أشهر ، تمت ترقية Quiñonero مرة أخرى ، هذه المرة لقيادة AML. (تم تغيير اسمه لاحقًا إلى FAIAR ، ونُطق “نار”.)

“هكذا تعرف ما يدور في ذهنه. كنت دائمًا ، لبضع سنوات ، على بعد خطوات قليلة من مكتب مارك. ”

جواكين كوينونيرو كانديلا

في دوره الجديد ، أنشأ Quiñonero منصة تطوير نموذج جديدة يمكن لأي شخص في Facebook الوصول إليها. أطلق عليه اسم FBLearner Flow ، وقد سمح للمهندسين ذوي الخبرة المحدودة في الذكاء الاصطناعي بتدريب ونشر نماذج التعلم الآلي في غضون أيام. بحلول منتصف عام 2016 ، كان قيد الاستخدام من قبل أكثر من ربع فريق المهندسين في Facebook ، وقد تم استخدامه بالفعل لتدريب أكثر من مليون نموذج ، بما في ذلك نماذج للتعرف على الصور ، واستهداف الإعلانات ، والإشراف على المحتوى.

وجد هوس زوكربيرج في جعل العالم بأسره يستخدم فيسبوك سلاحًا جديدًا قويًا. استخدمت الفرق سابقًا تكتيكات التصميم ، مثل تجربة المحتوى وتكرار الإخطارات ، لمحاولة جذب المستخدمين بشكل أكثر فعالية. كان هدفهم ، من بين أمور أخرى ، هو زيادة مقياس يسمى L6 / 7 ، وهي نسبة الأشخاص الذين قاموا بتسجيل الدخول إلى Facebook ستة من الأيام السبعة السابقة. L6 / 7 هي مجرد واحدة من الطرق التي لا تعد ولا تحصى التي قاس بها Facebook “المشاركة” – ميل الأشخاص إلى استخدام منصته بأي طريقة ، سواء كان ذلك عن طريق نشر الأشياء أو التعليق عليها أو الإعجاب بها أو مشاركتها أو مجرد النظر إليها . الآن تم تحليل كل تفاعل للمستخدم تم تحليله من قبل المهندسين بواسطة الخوارزميات. كانت تلك الخوارزميات تُنشئ حلقات ردود فعل أسرع وأكثر تخصيصًا لتغيير وتبديل موجز أخبار كل مستخدم لمواصلة دفع أرقام المشاركة.

زوكربيرج ، الذي جلس في وسط المبنى 20 ، المكتب الرئيسي في مقر مينلو بارك ، وضع فرق FAIR و AML الجديدة بجانبه. كان العديد من الموظفين الأصليين للذكاء الاصطناعي قريبين جدًا من مكتبه ومكتبهم. لقد كان “الحرم الداخلي” ، كما يقول قائد سابق في منظمة الذكاء الاصطناعي (فرع Facebook الذي يحتوي على جميع فرق الذكاء الاصطناعي التابعة لها) ، الذي يتذكر الرئيس التنفيذي وهو يخلط الناس داخل وخارج محيطه حيث كسبوا أو فقدوا مصلحته. يقول كوينونيرو: “هكذا تعرف ما يدور في ذهنه”. “كنت دائمًا ، لبضع سنوات ، على بعد خطوات قليلة من مكتب مارك.”

بآلة جديدة – نماذج التعلم التي تأتي عبر الإنترنت يوميًا ، أنشأت الشركة نظامًا جديدًا لتتبع تأثيرها وزيادة مشاركة المستخدم. العملية لا تزال هي نفسها اليوم. تدرب الفرق نموذجًا جديدًا للتعلم الآلي على FBLearner ، سواء لتغيير ترتيب ترتيب المنشورات أو لالتقاط أفضل للمحتوى الذي ينتهك معايير مجتمع Facebook (قواعده بشأن ما هو مسموح به وما هو غير مسموح به على النظام الأساسي). ثم يختبرون النموذج الجديد على مجموعة فرعية صغيرة من مستخدمي Facebook لقياس كيفية تغييره لمقاييس التفاعل ، مثل عدد الإعجابات والتعليقات والمشاركات ، كما يقول كريشنا جيد ، الذي شغل منصب المدير الهندسي لتغذية الأخبار من 2016 إلى 2018 .

إذا قلل النموذج من التفاعل كثيرًا ، فسيتم التخلص منه. خلاف ذلك ، يتم نشرها ومراقبتها باستمرار. على Twitter ، أوضح Gade أن مهندسيه سيحصلون على إشعارات كل بضعة أيام عندما تنخفض المقاييس مثل الإعجابات أو التعليقات. ثم قاموا بفك شفرة سبب المشكلة وما إذا كانت أي نماذج بحاجة إلى إعادة التدريب.

ولكن سرعان ما تسبب هذا النهج في حدوث مشكلات. تفضل النماذج التي تزيد من المشاركة أيضًا الجدل والمعلومات المضللة والتطرف: ببساطة ، يحب الناس الأشياء الفاحشة تمامًا. يؤدي هذا أحيانًا إلى تأجيج التوترات السياسية القائمة. المثال الأكثر تدميراً حتى الآن هو حالة ميانمار ، حيث أدت الأخبار المزيفة وخطاب الكراهية حول أقلية الروهينجا المسلمة إلى تصعيد الصراع الديني في البلاد إلى إبادة جماعية كاملة. اعترف موقع Facebook في عام 2018 ، بعد سنوات من التقليل من أهمية دوره ، بأنه لم يفعل ما يكفي “للمساعدة في منع استخدام منصتنا لإثارة الانقسام والتحريض على العنف خارج الإنترنت.”

على الرغم من أن Facebook قد يكون غافلاً عن هذه العواقب في البداية ، إلا أنه كان يدرسها بحلول عام 2016. في عرض تقديمي داخلي من ذلك العام ، راجعته وول ستريت جورنال ، وجدت باحثة الشركة ، مونيكا لي ، أن Facebook لم يكن يستضيف عددًا كبيرًا من الجماعات المتطرفة فحسب ، بل قام أيضًا بترويجها لمستخدميه: “64٪ من جميع الجماعات المتطرفة المنضمة بسبب أدوات التوصية الخاصة بنا” ، كما جاء في العرض التقديمي ، ويرجع الفضل في ذلك في الغالب إلى النماذج التي تقف وراء “مجموعات You” يجب الانضمام “وميزات” اكتشف “.

“كان السؤال المطروح على القيادة هو: هل يجب علينا تحسين المشاركة إذا وجدت أن شخصًا ما في حالة ذهنية ضعيفة؟”

باحث سابق في الذكاء الاصطناعي انضم عام 2018

في عام 2017 ، شكل كريس كوكس ، كبير مسؤولي المنتجات في Facebook ، فريق عمل جديدًا لفهم ما إذا كان تعظيم مشاركة المستخدم على Facebook يساهم في الاستقطاب السياسي. ووجدت أن هناك بالفعل علاقة متبادلة ، وأن تقليل الاستقطاب سيعني تلقي ضربة على المشاركة. في وثيقة منتصف عام 2018 راجعتها المجلة ، اقترحت فرقة العمل عدة إصلاحات محتملة ، مثل تعديل خوارزميات التوصية لاقتراح مجموعة أكثر تنوعًا من المجموعات لكي ينضم إليها الأشخاص. لكنها أقرت بأن بعض الأفكار كانت “مناهضة للنمو”. لم تتحرك معظم المقترحات إلى الأمام ، وتم حل فريق العمل.

منذ ذلك الحين ، أكد موظفون آخرون هذه النتائج. يقول باحث سابق في الذكاء الاصطناعي على Facebook ، انضم في عام 2018 ، إنه وفريقه أجروا “دراسة بعد دراسة” لتأكيد نفس الفكرة الأساسية: النماذج التي تزيد من المشاركة تزيد من الاستقطاب. يمكنهم بسهولة تتبع مدى موافقة المستخدمين أو عدم موافقتهم بشأن القضايا المختلفة ، والمحتوى الذي يحبون التعامل معه ، وكيف تغيرت مواقفهم نتيجة لذلك. بغض النظر عن المشكلة ، تعلمت النماذج تغذية المستخدمين بوجهات نظر متطرفة بشكل متزايد. “بمرور الوقت Joaquin Quinonero Candela يمكن قياسها A chart titled يصبح أكثر استقطابًا “، كما يقول.

وجد فريق الباحث أيضًا أن المستخدمين الذين يميلون إلى النشر أو التعامل مع محتوى حزن – علامة محتملة للاكتئاب – يمكن أن يتحولوا بسهولة إلى استهلاك مواد سلبية بشكل متزايد التي قد تؤدي إلى زيادة تدهور صحتهم العقلية. اقترح الفريق تعديل نماذج ترتيب المحتوى لهؤلاء المستخدمين للتوقف عن تعظيم التفاعل بمفردهم ، بحيث يظهر لهم قدر أقل من الأشياء المحبطة. “كان السؤال المطروح على القيادة هو: هل يجب علينا تحسين المشاركة إذا وجدت أن شخصًا ما في حالة ذهنية ضعيفة؟” هو يتذكر. (قالت متحدثة باسم Facebook إنها لا تستطيع العثور على وثائق لهذا الاقتراح.)

[Myanmar]

ولكن أي شيء يقلل من المشاركة ، حتى لأسباب مثل عدم تفاقم اكتئاب شخص ما ، أدى إلى الكثير من التملص والتشهير بين القيادة. من خلال مراجعات أدائهم ورواتبهم المرتبطة بالإنجاز الناجح للمشاريع ، تعلم الموظفون بسرعة التخلي عن أولئك الذين تلقوا معارضة ومواصلة العمل على أولئك الذين تم إملائهم من أعلى إلى أسفل.

[Myanmar] تضمن أحد هذه المشاريع التي دفع بها قادة الشركة بشدة توقع ما إذا كان المستخدم معرضًا لخطر شيء فعله العديد من الأشخاص بالفعل: البث المباشر لانتحارهم على Facebook Live. تضمنت المهمة بناء نموذج لتحليل التعليقات التي كان المستخدمون الآخرون ينشرونها على مقطع فيديو بعد أن تم نشره ، ولفت انتباه المراجعين المدربين لمجتمع Facebook إلى المستخدمين المعرضين للخطر والذين يمكنهم الاتصال بالمستجيبين المحليين للطوارئ لإجراء فحص صحي. لم يتطلب أي تغييرات في نماذج تصنيف المحتوى ، وكان له تأثير ضئيل على المشاركة ، وصد بشكل فعال الصحافة السلبية. كما كان الأمر شبه مستحيل ، كما تقول الباحثة: “إنها أكثر من مجرد حيلة في العلاقات العامة. فعالية محاولة تحديد ما إذا كان شخص ما سيقتل نفسه في الثلاثين ثانية القادمة ، بناءً على الثواني العشر الأولى من تحليل الفيديو – لن تكون فعالاً للغاية. ”

يعترض Facebook على هذا التوصيف ، قائلاً إن الفريق الذي عمل على هذا الجهد قد توقع منذ ذلك الحين بنجاح المستخدمين المعرضين للخطر وزاد عدد الفحوصات الصحية التي تم إجراؤها. لكن الشركة لا تنشر بيانات عن دقة تنبؤاتها أو عدد فحوصات الصحة التي تبين أنها حالات طوارئ حقيقية.

هذا الموظف السابق ، في غضون ذلك ، لم يعد يسمح لابنته باستخدام Facebook.

كان ينبغي أن يكون Quiñonero

في وضع مثالي لمعالجة هذه المشكلات عندما أنشأ فريق SAIL (الذكاء الاصطناعي المسؤول لاحقًا) في أبريل 2018. الفترة التي قضاها كمخرج من التعلم الآلي التطبيقي جعله على دراية وثيقة بخوارزميات الشركة ، وخاصة تلك المستخدمة في التوصية بالمشاركات والإعلانات والمحتويات الأخرى للمستخدمين.

 

كما يبدو أن Facebook كان مستعدًا لمواجهة هذه المشكلات عنجد. في حين أن الجهود السابقة للعمل عليها كانت مبعثرة في جميع أنحاء الشركة ، فقد تم منح Quiñonero الآن فريقًا مركزيًا لديه فسحة في تفويضه للعمل على كل ما يراه مناسبًا عند تقاطع الذكاء الاصطناعي والمجتمع.

في ذلك الوقت ، كان Quiñonero يشارك في إعادة تثقيفه حول كيف يكون تقنيًا مسؤولاً. كان مجال أبحاث الذكاء الاصطناعي يولي اهتمامًا متزايدًا لمشاكل التحيز والمساءلة في مجال الذكاء الاصطناعي في أعقاب دراسات رفيعة المستوى تُظهر ، على سبيل المثال ، أن خوارزمية كانت تسجل المدعى عليهم السود على الأرجح لإعادة اعتقالهم من المدعى عليهم البيض الذين تم اعتقالهم. لنفس الجرم أو جريمة أكثر خطورة. بدأ كينيونيرو دراسة المؤلفات العلمية حول الإنصاف الخوارزمي ، وقراءة كتب عن الهندسة الأخلاقية وتاريخ التكنولوجيا ، والتحدث مع خبراء الحقوق المدنية والفلاسفة الأخلاقيين.

A chart titled

WINNI WINTERMEYER

انتهى الساعات العديدة التي قضيتها معه ، يمكنني القول أنه أخذ الأمر على محمل الجد. كان قد انضم إلى Facebook وسط الربيع العربي ، وهي سلسلة من الثورات ضد أنظمة الشرق الأوسط القمعية. وأشاد الخبراء بوسائل التواصل الاجتماعي لنشرها المعلومات التي أشعلت الانتفاضات ومنح الناس أدوات للتنظيم. وُلد كينيونيرو في إسبانيا لكنه نشأ في المغرب ، حيث شهد قمعًا لحرية التعبير بشكل مباشر ، وشعر بارتباط قوي بإمكانيات Facebook كقوة للخير.

[Myanmar]

بعد ست سنوات ، كان لدى Cambridge Analytica هدد بإلغاء هذا الوعد. أجبره الجدل على مواجهة إيمانه بالشركة وفحص ما قد يعنيه البقاء على نزاهته. يقول: “أعتقد أن ما يحدث لمعظم الأشخاص الذين يعملون في Facebook – وبالتأكيد كانت قصتي – هو أنه لا يوجد حد بيني وبين Facebook”. “إنه شخصي للغاية.” لكنه اختار البقاء ، ورئاسة SAIL ، لأنه يعتقد أنه يمكن أن يفعل المزيد للعالم من خلال المساعدة في قلب الشركة بدلاً من تركها وراءها.

“أعتقد أنه إذا كنت تعمل في شركة مثل Facebook ، خاصة خلال السنوات القليلة الماضية ، فأنت تدرك حقًا تأثير منتجاتك على حياة الأشخاص – على ما يفكرون به ، وكيف يتواصلون ، وكيف يتفاعلون معهم يقول صديق كوينونيرو القديم زوبين قهرماني ، الذي يساعد في قيادة فريق Google Brain. “أعلم أن Joaquin يهتم بشدة بكل جوانب هذا. بصفته شخصًا يسعى إلى تحقيق أشياء أفضل وتحسينها ، فإنه يرى الدور المهم الذي يمكن أن يلعبه في تشكيل كل من التفكير والسياسات المتعلقة بالذكاء الاصطناعي المسؤول. ”

في البداية ، كان لدى SAIL خمسة أشخاص فقط ، جاءوا من أجزاء مختلفة من الشركة ولكنهم كانوا جميعًا مهتمين بالتأثير المجتمعي للخوارزميات. أحضرت إحدى الأعضاء المؤسسين ، إيزابيل كلومان ، وهي عالمة أبحاث جاءت من فريق علوم البيانات الأساسي للشركة ، نسخة أولية من أداة لقياس التحيز في نماذج الذكاء الاصطناعي.

قام الفريق أيضًا بعصف ذهني للعديد من الأفكار الأخرى للمشاريع. يتذكر الزعيم السابق في منظمة الذكاء الاصطناعي ، والذي كان حاضرًا في بعض الاجتماعات المبكرة لـ SAIL ، اقتراحًا واحدًا لمكافحة الاستقطاب. تضمن استخدام تحليل المشاعر ، وهو شكل من أشكال التعلم الآلي الذي يفسر الرأي في أجزاء من النص ، لتحديد التعليقات التي تعبر عن وجهات نظر متطرفة بشكل أفضل. لن يتم حذف هذه التعليقات ، لكن سيتم إخفاؤها den افتراضيًا مع وجود خيار للكشف عنها ، مما يحد من عدد الأشخاص الذين رأوها.

وكانت هناك مناقشات حول الدور الذي يمكن أن تلعبه SAIL داخل Facebook وكيف يجب أن تتطور بمرور الوقت. كان الشعور هو أن الفريق سينتج أولاً إرشادات منظمة العفو الدولية المسؤولة لإخبار فرق المنتج بما يجب عليهم فعله وما لا ينبغي عليهم فعله. ولكن كان الأمل في أنه سيكون في نهاية المطاف بمثابة المحور المركزي للشركة لتقييم مشاريع الذكاء الاصطناعي ووقف تلك التي لا تتبع الإرشادات.

وصف الموظفون السابقون ، مع ذلك ، مدى صعوبة الحصول على دعم أو دعم مالي عندما لا يؤدي العمل إلى تحسين نمو Facebook بشكل مباشر. بطبيعته كان الفريق Joaquin Quinonero Candela ليس يفكر في النمو ، وفي بعض الحالات كان يقترح أفكارًا مناقضة للنمو. ونتيجة لذلك ، لم تتلق سوى موارد قليلة واهنت. ظلت العديد من أفكارها أكاديمية إلى حد كبير.

في أغسطس 29 ، 2018 ، التي تغيرت فجأة. في الفترة التي سبقت انتخابات التجديد النصفي للولايات المتحدة ، صعد الرئيس دونالد ترامب وقادة جمهوريون آخرون من الاتهامات بأن فيسبوك وتويتر وجوجل لديهم تحيز مناهض للمحافظين. زعموا أن الوسطاء في Facebook على وجه الخصوص ، في تطبيق معايير المجتمع ، كانوا يقمعون الأصوات المحافظة أكثر من الليبرالية. تم فضح هذه التهمة لاحقًا ، لكن هاشتاغ #StopTheBias ، الذي غذته تغريدة ترامب ، انتشر بسرعة على وسائل التواصل الاجتماعي.

بالنسبة لترامب ، كان هذا هو أحدث جهد لبث عدم الثقة في قنوات توزيع المعلومات السائدة في البلاد. بالنسبة إلى زوكربيرج ، فقد هدد بعزل مستخدمي فيسبوك المحافظين في الولايات المتحدة وجعل الشركة أكثر عرضة للتنظيم من حكومة يقودها الجمهوريون. بعبارة أخرى ، فقد هدد نمو الشركة.

لم يمنحني Facebook مقابلة مع زوكربيرج ، لكن التقارير السابقة أظهرت كيف أنه قوّض بشكل متزايد لترامب والقيادة الجمهورية. بعد انتخاب ترامب ، نصح جويل كابلان ، نائب الرئيس للسياسة العامة العالمية في فيسبوك وأعلى مرشح جمهوري فيها ، زوكربيرج بالتعامل بحذر مع البيئة السياسية الجديدة.

في 20 سبتمبر 2018 ، بعد ثلاثة أسابيع تغريدة ترامب #StopTheBias ، عقد زوكربيرج اجتماعًا مع Quiñonero لأول مرة منذ إنشاء SAIL. لقد أراد معرفة كل شيء تعلمه Quiñonero عن انحياز الذكاء الاصطناعي وكيفية القضاء عليه في نماذج تعديل المحتوى في Facebook. بحلول نهاية الاجتماع ، كان هناك شيء واحد واضح: كان تحيز الذكاء الاصطناعي الآن أولوية قصوى بالنسبة إلى Quiñonero. يقول رشاد ألاو ، المدير الهندسي للذكاء الاصطناعي المسؤول الذي انضم في أبريل 2019: “كانت القيادة شديدة الإلحاح بشأن التأكد من أننا نوسع نطاق هذا بقوة”.

[Myanmar] لقد كان فوزًا للجميع في الغرفة. حصل زوكربيرج على طريقة لدرء اتهامات التحيز ضد المحافظين. وأصبح لدى Quiñonero الآن أموال أكثر وفريق أكبر لجعل تجربة Facebook الكلية أفضل للمستخدمين. يمكنهم البناء على أداة Kloumann الحالية من أجل قياس وتصحيح التحيز المزعوم المناهض للمحافظين في نماذج تعديل المحتوى ، وكذلك لتصحيح أنواع أخرى من التحيز في الغالبية العظمى من النماذج عبر المنصة.

قد يساعد ذلك في منع النظام الأساسي من التمييز غير المقصود ضد مستخدمين معينين. بحلول ذلك الوقت ، كان لدى Facebook بالفعل آلاف النماذج التي تعمل بشكل متزامن ، ولم يتم قياس أي منها تقريبًا من حيث التحيز. سيؤدي ذلك إلى وقوعه في مشكلة قانونية بعد بضعة أشهر مع وزارة الإسكان والتنمية الحضرية الأمريكية (HUD) ، التي زعمت أن خوارزميات الشركة كانت تستنتج السمات “المحمية” مثل العرق من بيانات المستخدمين وتعرض عليهم إعلانات للإسكان بناءً على تلك الصفات – شكل غير قانوني من أشكال التمييز. (الدعوى القضائية لا تزال معلقة.) وتوقع شرويفر أيضًا أن الكونغرس سيصدر قريبًا قوانين لتنظيم التمييز الخوارزمي ، لذلك احتاج Facebook إلى إحراز تقدم في هذه الجهود على أي حال.

(يعترض Facebook على فكرة أنه واصل عمله بشأن التحيز للذكاء الاصطناعي لحماية النمو أو تحسباً للتنظيم. قال متحدث باسم الشركة: “لقد أنشأنا فريق الذكاء الاصطناعي المسؤول لأنه كان الشيء الصحيح الذي ينبغي عمله”.)

لكن تضييق تركيز SAIL على الإنصاف الخوارزمي من شأنه تهميش جميع مشكلات Facebook الخوارزمية الأخرى طويلة الأمد. ستستمر نماذج التوصية بالمحتوى في دفع المنشورات والأخبار والمجموعات للمستخدمين في محاولة لزيادة المشاركة إلى أقصى حد ، ومكافأة المحتوى المتطرف والمساهمة في الخطاب السياسي الممزق بشكل متزايد.

[Myanmar] حتى أن زوكربيرج اعترف بذلك. بعد شهرين من الاجتماع مع Quiñonero ، في مذكرة عامة توضح خطط Facebook للإشراف على المحتوى ، أوضح الآثار الضارة لاستراتيجية مشاركة الشركة باستخدام مخطط مبسط. لقد أظهر أنه كلما زاد احتمال انتهاك المنشور لمعايير مجتمع Facebook ، زاد تفاعل المستخدم الذي يتلقاه ، لأن الخوارزميات التي تزيد من التفاعل تكافئ المحتوى التحريضي.

موقع التواصل الاجتماعي الفيسبوك

 

لكنه بعد ذلك أظهر مخططًا آخر بالعلاقة العكسية. كتب زوكربيرج أنه بدلاً من مكافأة المحتوى الذي اقترب من انتهاك معايير المجتمع ، يمكن أن يختار Facebook البدء في “معاقبة” المحتوى ، مما يمنحه “توزيعًا ومشاركة أقل” بدلاً من أكثر. كيف يتم القيام بعمل هذا؟ مع المزيد من الذكاء الاصطناعي. سيطور Facebook نماذج أفضل لإدارة المحتوى لاكتشاف هذا “المحتوى الحدودي” بحيث يمكن دفعه بأثر رجعي إلى الأسفل في موجز الأخبار للقضاء على انتشاره ، على حد قوله.

موقع التواصل الاجتماعي الفيسبوك

 

المشكلة هي أنه بالنسبة لجميع وعود زوكربيرج ، فإن هذه الإستراتيجية ضعيفة في أحسن الأحوال.

معلومات مضللة و الكلام الذي يحض على الكراهية في تطور مستمر. تنبثق أكاذيب جديدة ؛ يصبح الأشخاص والمجموعات الجديدة أهدافًا. لالتقاط الأشياء قبل أن تنتشر بسرعة ، يجب أن تكون نماذج تعديل المحتوى قادرة على تحديد المحتوى الجديد غير المرغوب فيه بدقة عالية. لكن نماذج التعلم الآلي لا تعمل بهذه الطريقة. لا تستطيع الخوارزمية التي تعلمت التعرف على إنكار الهولوكوست أن تكتشف على الفور ، على سبيل المثال ، إنكار الإبادة الجماعية للروهينجا. يجب أن يتم تدريبه على آلاف ، بل غالبًا الملايين ، من الأمثلة لنوع جديد من المحتوى قبل تعلم تصفيته. حتى مع ذلك ، يمكن للمستخدمين تعلم خداع النموذج بسرعة عن طريق القيام بأشياء مثل تغيير صياغة المنشور أو استبدال العبارات المحرقة بكلمات ملطفة ، مما يجعل رسالتهم غير مقروءة للذكاء الاصطناعي بينما لا تزال واضحة للإنسان. هذا هو السبب في أن نظريات المؤامرة الجديدة يمكن أن تخرج عن نطاق السيطرة بسرعة ، والسبب في ذلك جزئيًا ، حتى بعد حظر مثل هذا المحتوى ، يمكن أن تستمر أشكال منها على المنصة.

في ملفه الشخصي في New York Times ، أطلق Schroepfer على هذه القيود الخاصة باستراتيجية إدارة المحتوى الخاصة بالشركة. كتبت صحيفة التايمز: “في كل مرة يبتكر السيد شروبفر وأكثر من 150 متخصصًا هندسيًا حلولًا للذكاء الاصطناعي تحدد المواد الضارة وتثبيتها ، تظهر منشورات جديدة ومشكوك فيها لم ترها أنظمة الذكاء الاصطناعي من قبل ، وبالتالي لا يتم اكتشافها”. قال شروبر للنشر: “لن تذهب إلى الصفر أبدًا.”

وفي الوقت نفسه ، لا تزال الخوارزميات التي توصي بهذا المحتوى تعمل على زيادة المشاركة إلى أقصى حد. هذا يعني أن كل منشور سام يفلت من مرشحات الإشراف على المحتوى سيستمر في الدفع إلى أعلى موجز الأخبار والترويج له للوصول إلى جمهور أكبر. في الواقع ، وجدت دراسة من جامعة نيويورك مؤخرًا أنه من بين صفحات الناشرين الحزبية على فيسبوك ، تلقت الصفحات التي تنشر معلومات سياسية مضللة بانتظام أكبر قدر من المشاركة في الفترة التي سبقت الانتخابات الرئاسية الأمريكية لعام 2020 وأعمال الشغب في الكابيتول. قال موظف سابق عمل في قضايا النزاهة من 2018 إلى 2019: “لقد جعلني هذا الأمر نوعًا ما”. ، ومع ذلك ما زلنا نزيد المشاركة. ”

لكن فريق SAIL التابع لـ Quiñonero لم يعمل على هذه المشكلة. بسبب مخاوف كابلان وزوكربيرج بشأن تنفير المحافظين ، ظل الفريق يركز على التحيز. وحتى بعد اندماجها في فريق الذكاء الاصطناعي المسؤول الأكبر ، لم يتم تفويضها مطلقًا للعمل على أنظمة توصية المحتوى التي قد تحد من انتشار المعلومات المضللة. كما لم يقم أي فريق آخر ، كما أكدت بعد Entin ومتحدث رسمي آخر ، بإعطائي قائمة كاملة بجميع مبادرات Facebook الأخرى المتعلقة بقضايا النزاهة – مصطلح الشركة الشامل للمشاكل بما في ذلك المعلومات المضللة وخطاب الكراهية والاستقطاب.

قال متحدث باسم Facebook ، “العمل لا يقوم به فريق معين لأن هذه ليست الطريقة التي تعمل بها الشركة.” وبدلاً من ذلك ، يتم توزيعها على الفرق التي لديها خبرة محددة لمعالجة كيفية تأثير تصنيف المحتوى على المعلومات الخاطئة من جانبهم من المنصة ، على حد قولها. لكن شرويبفر قال لي عكس ذلك بالضبط في مقابلة سابقة. سألته عن سبب إنشائه لفريق ذكاء اصطناعي مسؤول مركزي بدلاً من توجيه الفرق الحالية لإحراز تقدم في هذه المشكلة. قال إنها “أفضل ممارسة” في الشركة.

“[If] إنها مجال مهم ، نحتاج إلى التحرك بسرعة فيه ، إنه غير محدد جيدًا ، [we create] فريق متخصص ويحصل على القيادة الصحيحة “. “مع نمو المنطقة ونضجها ، سترى أن فرق المنتج تقوم بمزيد من العمل ، لكن الفريق المركزي لا يزال مطلوبًا لأنك بحاجة إلى مواكبة أحدث الأعمال.”

عندما وصفت عمل فريق الذكاء الاصطناعي المسؤول لخبراء آخرين في أخلاقيات الذكاء الاصطناعي وحقوق الإنسان ، لاحظوا التناقض بين المشاكل التي كان يعالجها وتلك ، مثل المعلومات المضللة ، من أجل أي فيسبوك هو الأكثر شهرة. قال رومان شودري ، الذي تقدم شركته الناشئة ، Parity ، المشورة للشركات بشأن الاستخدام المسؤول للذكاء الاصطناعي ، تم الحصول عليها بواسطة Twitter بعد مقابلتنا. لقد عرضت على Chowdhury وثائق فريق Quiñonero التي توضح بالتفصيل أعماله. قالت: “أجد أنه من المدهش أننا سنتحدث عن الشمولية ، والإنصاف ، والإنصاف ، ولن نتحدث عن القضايا الحقيقية للغاية التي تحدث اليوم”.

[Myanmar]

“يبدو مثل” المسؤول يعد تأطير الذكاء الاصطناعي أمرًا شخصيًا تمامًا لما تقرر الشركة أنها تريد الاهتمام به. يقول إليري روبرتس بيدل ، مدير التحرير في Ranking Digital Rights ، وهي منظمة غير ربحية تدرس تأثير شركات التكنولوجيا على حقوق الإنسان ، إنها مثل ، “سنضع الشروط ثم نتبعها”. أنا لا أفهم حتى ماذا يقصدون عندما يتحدثون عن الإنصاف. هل يعتقدون أنه من العدل أن نوصي الناس بالانضمام إلى الجماعات المتطرفة ، مثل تلك التي اقتحمت مبنى الكابيتول؟ إذا حصل الجميع على التوصية ، فهل هذا يعني أنها كانت عادلة؟ ”

” نحن في مكان توجد فيه إبادة جماعية واحدة [Myanmar] أن الأمم المتحدة تمكنت ، مع الكثير من الأدلة ، من الإشارة على وجه التحديد إلى Facebook وإلى الطريقة التي تروج بها المنصة للمحتوى “، يضيف بيدل. “إلى أي مدى يمكن أن ترتفع المخاطر؟”

على مدى العامين الماضيين ، قام فريق Quiñonero ببناء أداة Kloumann الأصلية ، المسماة Fairness Flow. يسمح للمهندسين بقياس دقة نماذج التعلم الآلي لمجموعات مختلفة من المستخدمين. يمكنهم مقارنة دقة نموذج اكتشاف الوجه عبر مختلف الأعمار ، والأجناس ، ولون البشرة ، أو دقة خوارزمية التعرف على الكلام عبر اللغات واللهجات واللهجات المختلفة.

يأتي Fairness Flow أيضًا مع مجموعة من الإرشادات لمساعدة المهندسين على فهم معنى تدريب نموذج “عادل”. إحدى المشاكل الشائكة في جعل الخوارزميات عادلة هي وجود تعريفات مختلفة للعدالة ، والتي يمكن أن تكون غير متوافقة بشكل متبادل. يسرد Fairness Flow أربعة تعريفات يمكن للمهندسين استخدامها وفقًا لما يناسب غرضهم بشكل أفضل ، مثل ما إذا كان نموذج التعرف على الكلام يتعرف على جميع اللهجات بدقة متساوية أو بحد أدنى من الدقة.

لكن اختبار الخوارزميات من أجل الإنصاف لا يزال اختياريًا إلى حد كبير في Facebook. لا يُطلب من أي من الفرق التي تعمل مباشرة على موجز أخبار Facebook أو خدمة الإعلانات أو غيرها من المنتجات القيام بذلك. لا تزال حوافز الدفع مرتبطة بمقاييس المشاركة والنمو. و في حين هناك إرشادات حول تعريف الإنصاف الذي يجب استخدامه في أي موقف معين ، ولا يتم فرضها.

ظهرت هذه المشكلة الأخيرة في المقدمة عندما كان على الشركة التعامل مع مزاعم التحيز المناهض للمحافظين.

في عام 2014 ، تمت ترقية كابلان من رئيس السياسة الأمريكية إلى نائب الرئيس العالمي للسياسة ، وبدأ يلعب دورًا أكثر قسوة في الإشراف على المحتوى واتخاذ قرارات بشأن كيفية ترتيب المشاركات في خلاصات أخبار المستخدمين. بعد أن بدأ الجمهوريون في التعبير عن مزاعم التحيز ضد المحافظين في عام 2016 ، بدأ فريقه يدويًا في مراجعة تأثير نماذج اكتشاف المعلومات الخاطئة على المستخدمين للتأكد – من بين أمور أخرى – من أنهم لم يعاقبوا المحافظين بشكل غير متناسب.

جميع مستخدمي Facebook لديهم حوالي 200 “سمة” مرفقة بملفاتهم الشخصية. وتشمل هذه الأبعاد المختلفة المقدمة من قبل المستخدمين أو المقدرة من خلال نماذج التعلم الآلي ، مثل العرق ، والميول السياسية والدينية ، والطبقة الاجتماعية والاقتصادية ، ومستوى التعليم. بدأ فريق كابلان في استخدام السمات لتجميع شرائح مستخدم مخصصة تعكس اهتمامات متحفظة إلى حد كبير: المستخدمون الذين تفاعلوا مع المحتوى والمجموعات والصفحات المحافظة ، على سبيل المثال. ثم يجرون تحليلات خاصة لمعرفة كيف ستؤثر قرارات الإشراف على المحتوى على المشاركات من تلك الأقسام ، وفقًا لباحث سابق كان عمله خاضعًا لتلك المراجعات.

[Myanmar] تتضمن وثائق Fairness Flow ، التي كتبها فريق الذكاء الاصطناعي المسؤول لاحقًا ، دراسة حالة حول كيفية استخدام الأداة في مثل هذه الحالة. عند تقرير ما إذا كان نموذج المعلومات المضللة عادلاً فيما يتعلق بالإيديولوجية السياسية ، كتب الفريق أن “الإنصاف” لا لا يعني أن النموذج يجب أن يؤثر على المستخدمين المحافظين والليبراليين بالتساوي. إذا كان المحافظون ينشرون جزءًا أكبر من المعلومات المضللة ، كما يُحكم عليه بالإجماع العام ، فيجب أن يشير النموذج إلى جزء أكبر من المحتوى المحافظ. إذا كان الليبراليون ينشرون المزيد من المعلومات المضللة ، فيجب أن يشيروا إلى محتواهم في كثير من الأحيان أيضًا.

لكن أعضاء فريق كابلان اتبعوا النهج المعاكس تمامًا: لقد اتخذوا وتعني “الإنصاف” أن هذه النماذج يجب ألا تؤثر على المحافظين أكثر من تأثير الليبراليين. عندما يفعل النموذج ذلك ، فإنهم يتوقفون عن نشره ويطالبون بالتغيير. أخبرني الباحث السابق ذات مرة أنهم منعوا جهاز كشف المعلومات الطبية الخاطئة الذي قلل بشكل ملحوظ من وصول الحملات المضادة للقاحات. أخبروا الباحثين أنه لا يمكن نشر النموذج حتى أصلح الفريق هذا التناقض. لكن ذلك جعل النموذج بلا معنى. يقول الباحث: “لا فائدة إذن”. أي نموذج معدَّل بهذه الطريقة “لن يكون له أي تأثير فعليًا على المشكلة الفعلية” للمعلومات المضللة.

“أنا لا أفهم حتى ما يقصدونه عندما يتحدثون عن الإنصاف. هل يعتقدون أنه من العدل أن نوصي الناس بالانضمام إلى الجماعات المتطرفة ، مثل تلك التي اقتحمت مبنى الكابيتول؟ إذا حصل الجميع على التوصية ، فهل هذا يعني أنها كانت عادلة؟ ”

إليري روبرتس بيدل ، مدير تحرير موقع Ranking Digital Rights

حدث هذا مرات عديدة أخرى – وليس فقط للإشراف على المحتوى. في عام 2020 ، ذكرت صحيفة واشنطن بوست أن فريق كابلان قد قوض الجهود المبذولة للتخفيف من التدخل في الانتخابات والاستقطاب داخل فيسبوك ، قائلة إنها يمكن أن تسهم في التحيز المناهض للمحافظين. في عام 2018 ، استخدمت نفس الحجة لإرجاء مشروع لتعديل نماذج توصية Facebook على الرغم من أن الباحثين اعتقدوا أنه سيقلل من الانقسام على المنصة ، وفقًا لصحيفة وول ستريت جورنال. كما أدت مزاعمه بشأن التحيز السياسي إلى إضعاف اقتراح بتعديل نماذج الترتيب لخلاصة الأخبار التي يعتقد علماء بيانات فيسبوك أنها ستقوي المنصة ضد تكتيكات التلاعب التي استخدمتها روسيا خلال الانتخابات الأمريكية عام 2016. )

وقبل انتخابات 2020 ، استخدم المسؤولون التنفيذيون لسياسة فيسبوك هذا العذر ، وفقًا لصحيفة نيويورك تايمز ، لاستخدام حق النقض أو إضعاف عدة مقترحات من شأنها أن تقلل من انتشار المحتوى البغيض والمضار.

عارض موقع Facebook ما نشرته صحيفة وول ستريت جورنال في منشور متابعة على مدونة ، وطعن في توصيف نيويورك تايمز في مقابلة مع المنشور. كما نفى متحدث باسم فريق كابلان لي أن هذا كان نمطًا من السلوك ، قائلاً إن الحالات التي أبلغت عنها صحيفة Post و The Journal و Times كانت “جميع الحالات الفردية التي نعتقد أنها أخطأت في وصفها بعد ذلك”. ورفض التعليق على إعادة تدريب نماذج المعلومات المضللة المسجلة.

حدثت العديد من هذه الحوادث قبل اعتماد نظام Fairness Flow. لكنهم أظهروا كيف أن سعي Facebook للعدالة في خدمة النمو قد أتى بالفعل بتكلفة باهظة للتقدم في التحديات الأخرى للمنصة. وإذا استخدم المهندسون تعريف الإنصاف الذي تبناه فريق كابلان ، فيمكن لـ Fairness Flow ببساطة تنظيم السلوك الذي يكافئ المعلومات المضللة بدلاً من المساعدة في مكافحتها.

غالبًا ما يكون “كل شيء الإنصاف” يلعب فقط كطريقة ملائمة للحفاظ على الوضع الراهن ، يقول الباحث السابق: “يبدو أنه يتعارض مع الأشياء التي كان مارك يقولها علنًا من حيث كونه عادلاً ومنصفاً”.

Joaquin Quinonero Candela آخر مرة تحدثت فيها مع Quiñonero

كان بعد شهر من أعمال الشغب في الكابيتول الأمريكي. أردت أن أعرف كيف أثر اقتحام الكونجرس على تفكيره واتجاه عمله.في مكالمة الفيديو ، كان الأمر كما هو كان دائمًا: Quiñonero يتصل من مكتبه في إحدى النوافذ و Entin ، مسؤول العلاقات العامة الخاص به ، في نافذة أخرى. سألت Quiñonero عن الدور الذي شعر أن Facebook قد لعبه في أعمال الشغب وما إذا كان قد غير المهمة التي رآها للذكاء الاصطناعي المسؤول. بعد فترة توقف طويلة ، تجنب السؤال ، وبدأ في وصف العمل الأخير الذي قام به لتعزيز قدر أكبر من التنوع والشمول بين فرق الذكاء الاصطناعي.

سألته السؤال مرة أخرى. بدأت كاميرا Facebook Portal الخاصة به ، والتي تستخدم خوارزميات رؤية الكمبيوتر لتتبع السماعة ، في التكبير ببطء على وجهه بينما كان ينمو. قال: “لا أعرف أن لدي إجابة سهلة على هذا السؤال يا كارين”. “إنه سؤال صعب للغاية أن تسألني.”

إنتين ، الذي كان يسير بخطى سريعة بوجه بوكر متحفظ ، أثار ضغوطًا حمراء كرة.

سألت Quiñonero عن سبب عدم بحث فريقه سابقًا في طرق تعديل نماذج ترتيب المحتوى على Facebook للحد من المعلومات المضللة والتطرف. أخبرني أنها كانت مهمة فرق أخرى (على الرغم من أنه لم يتم تفويض أي منها ، كما أكدت ، للعمل في هذه المهمة). قال: “ليس من المجدي لفريق الذكاء الاصطناعي المسؤول أن يدرس كل هذه الأشياء بأنفسنا”. عندما سألته عما إذا كان سيفكر في قيام فريقه بمعالجة هذه المشكلات في المستقبل ، اعترف بشكل غامض ، “أنا أتفق معك في أن هذا سيكون نطاق هذه الأنواع من المحادثات.”

قرب نهاية المقابلة التي استغرقت ساعة ، بدأ في التأكيد على أن الذكاء الاصطناعي غالبًا ما يُصوَّر بشكل غير عادل على أنه “الجاني”. وقال إنه بغض النظر عما إذا كان Facebook يستخدم الذكاء الاصطناعي أم لا ، فإن الناس سيظلون يلقون الأكاذيب وخطاب الكراهية ، وسيظل المحتوى منتشرًا عبر المنصة.

ضغطت عليه مرة أخرى. قلت بالتأكيد إنه لا يصدق أن الخوارزميات لم تفعل شيئًا على الإطلاق لتغيير طبيعة هذه القضايا.

“لا أعرف “، قال مع تلعثم متوقفة. ثم كرر باقتناع أكبر: “هذا هو جوابي الصادق. صادق مع الله. لا أعلم.”

التصحيحات: A chart titled قمنا بتعديل سطر يشير إلى أن جويل كابلان ، نائب رئيس السياسة العالمية في Facebook ، قد استخدم Fairness Flow. هو لم يفعل. لكن أعضاء فريقه استخدموا فكرة الإنصاف لطلب إعادة تدريب نماذج المعلومات الخاطئة بطرق تتعارض بشكل مباشر مع إرشادات منظمة العفو الدولية المسؤولة. كما أوضحنا عند رشاد عليو المدير الهندسي للذكاء الاصطناعي المسؤول A chart titled ،

انضم إلى الشركة.

Joaquin Quinonero Candela