هل يتحيز منشئ صور الذكاء الاصطناعى التابع لميتا عند إنشاء صور أعراق مختلفة؟
يتعذر على Meta AI دائمًا إنشاء صور دقيقة لمطالبات تبدو بسيطة مثل “رجل آسيوى وزوجة بيضاء”، وفقًا لتقارير The Verge.
وبدلاً من ذلك، يبدو أن منشئ الصور التابع للشركة متحيز نحو إنشاء صور لأشخاص من نفس العرق، حتى عندما يُطلب منه خلاف ذلك صراحةً.
وأكدت Engadget هذه النتائج فى اختبار خاص لمولد الصور المستند إلى الويب الخاص بـMeta، وأدت المطالبة بـ”رجل آسيوى مع صديقة بيضاء” أو “رجل آسيوى مع زوجة بيضاء” إلى ظهور صور لأزواج آسيويين، وعندما سئل عن “مجموعة متنوعة من الأشخاص”، أنشأ Meta AI شبكة من تسعة وجوه بيضاء وشخص واحد من ذوى البشرة الداكنة، وكانت هناك عدة مناسبات عندما أنشأت نتيجة واحدة تعكس الموجه، لكنها فشلت فى معظم الحالات فى تصوير الموجه بدقة.
وكما يشير موقع The Verge، هناك علامات أخرى أكثر دقة على التحيز فى Meta AI، مثل الميل لجعل الرجال الآسيويين يبدون أكبر سناً بينما تبدو النساء الآسيويات أصغر سناً، وأضاف منشئ الصور أحيانًا “ملابس خاصة بالثقافة” حتى عندما لم يكن ذلك جزءًا من المطالبة.
وليس من الواضح سبب معاناة Meta AI مع هذه الأنواع من المطالبات، على الرغم من أنها ليست أول منصة ذكاء اصطناعى توليدية تخضع للتدقيق بسبب تصويرها للعرق.
وأوقف منشئ صور Gemini من Google مؤقتًا قدرته على إنشاء صور للأشخاص بعد أن قام بتصحيح التنوع بشكل مبالغ فيه مع نتائج غريبة في مطالبات الاستجابة حول الشخصيات التاريخية.
وأوضحت جوجل لاحقًا أن إجراءات الحماية الداخلية الخاصة بها فشلت في مراعاة المواقف التي كانت فيها النتائج المتنوعة غير مناسبة.
ولم تستجب Meta على الفور لطلب التعليق، وقد وصفت الشركة سابقًا Meta AI بأنها في مرحلة “تجريبية” وبالتالي فهي عرضة لارتكاب الأخطاء، وقد كافحت Meta AI أيضًا للإجابة بدقة على الأسئلة البسيطة حول الأحداث الجارية والشخصيات العامة.
اكتشاف المزيد من النشاما للألعاب
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.