يواجه نموذج الذكاء الاصطناعي الجديد DeepSeek-R1، الذي يُعرف بتركيزه على الاستدلال والتفكير المنطقي، اتهامات بفرض رقابة على عدد كبير من الاستفسارات المتعلقة بمواضيع حساسة، خاصة تلك التي تتعارض مع سياسات الحزب الشيوعي الصيني.
جاءت هذه الاتهامات بعد اختبار أجرته شركة مختصة في الذكاء الاصطناعي، أظهر أن النموذج يرفض الإجابة على استفسارات معينة حول الصين أو يقدم ردودًا عامة ومضللة.
الاختبار يكشف الرقابة على استفسارات حول الصين
وفقًا لموقع Gadgets360 الهندي، تم إجراء اختبار بواسطة شركة Promptfoo، وهي شركة متخصصة في اختبار نماذج الذكاء الاصطناعي، حيث كشفت أن DeepSeek-R1 رفض الرد على أكثر من 1,000 استفسار حول قضايا حساسة تتعلق بالصين.
وأوضحت الشركة أن النموذج إما رفض الإجابة تمامًا أو قدم ردودًا تتماشى مع السياسات الحكومية الصينية.
شركة Promptfoo نشرت مجموعة بيانات تضم استفسارات تتعلق بمواضيع حساسة، مثل استقلال تايوان، الروايات التاريخية عن الثورة الثقافية، وأسئلة حول شي جين بينغ.
وأظهرت النتائج أن النموذج رفض 85% من هذه الاستفسارات أو قدم إجابات طويلة ومبهمة تتفق مع السياسات الصينية.
التعامل مع الاستفسارات الحساسة
أشارت Promptfoo إلى أن النموذج لم يقم ببساطة برفض الإجابة كما هو معتاد في بعض نماذج الذكاء الاصطناعي عند تجنبها لبعض الأسئلة، بل قدّم إجابات تتماشى مع السياسات الحكومية الصينية.
من المثير للجدل أن النموذج لم يفعل آليات “التفكير المتسلسل” (CoT)، التي تستخدم لاستدلال منطقي على الأسئلة، ما يعزز فرضية وجود توجيهات مباشرة في تصميم النموذج تضمن التوافق مع السياسات الصينية.
عندما قام فريق Gadgets 360 بإجراء اختبارات إضافية باستخدام نفس الاستفسارات، كانت النتائج مشابهة، حيث تم رفض العديد من الأسئلة أو تقديم إجابات تتفق مع وجهة نظر الحكومة الصينية.
مصداقية النموذج وحياديته تحت التساؤل
ورغم أن الرقابة على نماذج الذكاء الاصطناعي ليست مفاجئة في الصين نظرًا للقوانين واللوائح الصارمة التي تفرضها الدولة، فإن مستوى الرقابة في DeepSeek-R1 يثير القلق بشأن مصداقية النموذج وحياديته.
وفقًا للخبراء، فإن تدخل الحكومات في تدريب نماذج الذكاء الاصطناعي يمكن أن يؤثر بشكل كبير على حيادية المعلومات المقدمة، مما يحد من قدرة النموذج على استخدامه في مجالات مثل الأبحاث الأكاديمية أو التحليلات السياسية.
لا شك أن فرض الرقابة على نماذج الذكاء الاصطناعي قد يكون أمرًا متوقعًا في بيئات سياسية معينة، ولكن في حالة DeepSeek-R1، يبدو أن الرقابة قد أثرت بشكل كبير على مصداقية النموذج.
مع تزايد استخدام الذكاء الاصطناعي في مجالات متعددة، من الضروري ضمان أن هذه النماذج لا تتأثر بالسياسات الحكومية بشكل يؤدي إلى تحريف المعلومات أو تقييد حرية التفكير