متابعات- السابعة الاخبارية
حذرت منظمة اليونسكو، في تقرير نُشر قبيل يوم المرأة العالمي، من أن النماذج اللغوية الكبيرة لشركتي “ميتا” و”أوبن ايه آي” تُظهر تحيزات واضحة ضد المرأة.
نماذج الذكاء الاصطناعي
تُستخدم هذه النماذج، مثل “جي بي تي 2” و “جي بي تي 3,5” من “أوبن ايه آي” وبرنامج “لاما 2” من “ميتا”، كأساس لأدوات الذكاء الاصطناعي التوليدي.
نتائج الدراسات
أظهرت الدراسة التي أجرتها اليونسكو أن هذه الأدوات تربط الأسماء المؤنثة بكلمات مثل “منزل” و”عائلة” و”أطفال” بشكل أكبر، بينما تربط الأسماء المذكرة بكلمات مثل “تجارة” و”راتب” و”وظيفة”.
عند طلب كتابة قصص عن أشخاص من أصول وأجناس مختلفة، اتضح أن القصص المتعلقة بالنساء والأقليات كانت أكثر تكرارًا واستنادًا إلى صور نمطية.
على سبيل المثال، تم عرض الرجل الإنجليزي كمدرّس أو سائق أو موظف مصرف، بينما تم تقديم المرأة الإنجليزية في 30% من النصوص على أنها بائعة هوى أو عارضة أزياء أو نادلة.
أكدت اليونسكو أن هذه الشركات تفشل في تمثيل جميع مستخدميها، وأن وجود تحيزات جنسية في محتواها يمكن أن يزيد من عدم المساواة في العالم الحقيقي.
مكافحة التحيز
لمكافحة هذه التحيزات، أوصت اليونسكو بزيادة تنوع فرق المهندسين في هذه الشركات، وزيادة عدد النساء بشكل خاص، حيث لا يمثلن سوى 22% من أعضاء فرق الذكاء الاصطناعي على مستوى العالم.
دعت اليونسكو الحكومات أيضًا إلى إقرار قوانين لاعتماد ذكاء اصطناعي يستند إلى معايير أخلاقية.
****************************
– لكتابة مقال خاص عن اسم مؤسستك أو شركتك يمكنك المراسلة عبر البريد الإلكتروني التالي:
info@7news1.com