أعلنت شركة مايكروسوفت أنها قامت بتحديث تقنية التعرف على الوجه بإدخال تحسينات كبيرة على قدرة النظام لتمييز جنس الشخص -ذكر أم أنثي- من خلال درجات لون البشرة، ليصبح بإمكانها الآن التعرف على الرجال والنساء ذوي البشرة الداكنة بشكل أكبر بكثير من المحاولات السابقة.
ويعالج هذا التحسن المخاوف الأخيرة من أن تقنيات التعرف على الوجوه المتاحة تجارياً قد تعرفت بشكل أكثر دقة على جنس الأشخاص ذوي درجات البشرة الفاتحة في حين كانت أقل دقة مع ذوي درجات البشرة الداكنة، وأنها كانت أفضل أداء على الذكور ذوي البشرة الفاتحة والأسوأ على الإناث ذات البشرة الداكنة.
مع التحسينات الجديدة قالت مايكروسوفت إنها تمكنت من خفض معدلات الخطأ في التعرف على الرجال والنساء ذوي البشرة الداكنة بنسبة تصل إلى 20 مرة، وبالنسبة لجميع النساء فمعدلات الخطأ انخفضت بنسبة تسع مرات. وقالت الشركة إنه مع هذه التحسينات وإنخفاض نسب الخطأ تمكنوا من تقليل اختلافات الدقة بشكل كبير عبر التركيبة السكانية.
لسنوات أظهر الباحثون قابلية أنظمة التعرف على الوجه على التحيز العرقي. حيث توصلت دراسة أجريت في عام 2011 إلى أن الخوارزميات في الصين واليابان وكوريا الجنوبية كانت تواجه مشكلة أكبر في التمييز بين الوجوه القوقازية ووجوه شرق آسيا، وأظهرت دراسة أخري أن تقنية التعرف على الوجوه المنتشرة على نطاق واسع من قبل شركات الأمن كانت أقل دقة بنسبة 5 إلى 10 بالمائة مع الأمريكيين من أصول أفريقية الذين تعرفت عليهم.
في شهر مارس الماضي اكتشف باحثون في مختبرات معهد ماساتشوستس للتكنولوجيا أن خدمات التعرف على الوجه الشائعة من مايكروسوفت وآي بي أم IBM و++Face تختلف في الدقة على أساس الجنس والعرق.
لمعالجة المشكلة أجرى باحثون في مايكروسوفت تدريبًا لتقنية التعرف على الوجوه -والتي هي متاحة للعملاء كواجهة برمجة تطبيقات Face API عبر Azure Cognitive Services- وتوسيع مجموعات قواعد البيانات القياسية وجمع بيانات جديدة عبر درجات ألوان البشرة والأجناس والأعمار، بالإضافة إلى عملهم مع خبراء في مجال الذكاء الاصطناعي لتحسين نظام يُسمى تصنيف جنس الأشخاص، مع التركيز بشكل خاص على تحسين النتائج لجميع درجات لون البشرة.
معدلات الخطأ الأعلى على الإناث ذات البشرة الداكنة تُشكل تحديًا كبيرًا حيث أن تقنيات الذكاء الاصطناعي ليست سوى تعبير عن جودة البيانات المستخدمة لتدريبها. فإذا كان نظام التعرف على الوجه يعطي أداء جيد مع جميع الأشخاص فيجب أن تمثل مجموعة بيانات التدريب مجموعة متنوعة من درجات لون البشرة بالإضافة إلى عوامل أخرى مثل تصفيفة الشعر والمجوهرات والنظارات.
موضوعات ذات صلة بما تقرأ الآن:
قالت هانا والاك وهي أحد الباحثين في مختبر أبحاث مايكروسوفت في نيويورك وخبيرة في الإنصاف والمساءلة والشفافية في أنظمة الذكاء الاصطناعي: “لقد قمنا بالتركيز على الطرق المطلوبة للكشف عن التحيز وتفعيل العدالة، عن طريق توسيع مجموعات البيانات لتنويع بيانات التدريب، وكان هناك استراتيجيات مختلفة لاختبار أنظمتنا داخليًا قبل نشرها”.
كما يركز باحث كبير آخر مشارك في هذا البحث على التحيز في بيانات التدريب التي يمكن أن ينتج عنها أنظمة متحيزة، مثل “النقص في تمثيل النساء ذوي البشرة الداكنة التي قد تقود أنظمة الذكاء الاصطناعي إلى معدلات خطأ غير مقبولة في مهام تصنيف جنس الأشخاص”.
يُعد تطوير تقنية التعرف على الوجوه Face AI بداية لتقليل التحيز في أنظمة الذكاء الاصطناعي. حيث تقوم مايكروسوفت بتطوير أدوات تساعد المهندسين على تحديد النقاط العمياء في بيانات التدريب التي قد ينتج عنها خوارزميات ذات معدلات أخطاء عالية. كما تعمل الشركة على تأسيس أفضل الممارسات للكشف عن التحيز البشري والتخفيف من آثاره في سياق تطوير أنظمة الذكاء الاصطناعي، وفقًا لما ورد في منشور لمايكروسوفت.
قالت والاك “إذا كنا ندرب أنظمة التعلم الآلي لمحاكاة القرارات التي تُتخذ في مجتمع متحيز باستخدام البيانات التي يولدها ذلك المجتمع فإن هذه الأنظمة ستعيد بالضرورة تحيّزها، وهذه فرصة للتفكير في القيم التي نعكسها في أنظمتنا”.
على الرغم من أن القضاء على التحيز في الأنظمة التقنية يعتبر قضية مهمة، إلا أن تطبيقات المراقبة والتحقق المحتملة لتقنية التعرف على الوجه تسبب للكثير من النقاد في بعض القلق، حيث تواجه شركة مايكروسوفت في الوقت الحالي رد فعل عنيفًا بسبب تعاقد ذراعها للحوسبة السحابية Azure مع إدارة الهجرة والجمارك في الولايات المتحدة ICE على الرغم من معارضة الشركة لسياسة فصل الحدود التي سنتها الوكالة.
وكانت الشركة قد صرحت عبر منشور لها في شهر يناير/كانون الثاني عن نيتها للمضي قدمًا في التعاقد مع إدارة الهجرة والجمارك الأمريكية ICE من خلال خدماتها السحابية Azure، بما يشمل القدرة على استخدام إمكانيات التعلم العميق لتسريع التعرف على الوجه وتحديد الهوية، من خلال واجهة برمجة التطبيقات للتعرف على الوجه Face API الموجودة داخل خدمات أزور المعرفية Azure Cognitive Services وهي جزء من مجموعة من الأدوات المقدمة في عقود مايكروسوفت.
ومع ذلك لا تعد شركة مايكروسوفت هي الشركة الوحيدة التي تحاول تقليل انحياز خوارزميات الذكاء الاصطناعي، ففي شهر مايو الماضي أعلنت شركة فيسبوك عن أداة تُسمى Fairness Flow والتي تحذر تلقائيًا إذا كانت الخوارزمية تقوم بحكم غير عادل على الشخص استنادًا إلى عرقه أو جنسه أو عمره. كما ركزت الدراسات الحديثة من مجموعة واتسون Watson والمنصات السحابية التابعة لشركة آي بي أم IBM على تخفيف التحيز في أنظمة الذكاء الاصطناعي خاصةً فيما يتعلق بتقنية التعرف على الوجه.