الإمارات – السابعة الإخبارية
الذكاء الاصطناعي.. كشفت دراسة حديثة عن نتائج مثيرة للجدل تتعلق بمستوى حماية خصوصية المستخدمين في تطبيقات الذكاء الاصطناعي التوليدي، حيث تصدّر نموذج “Le Chat” من تطوير شركة Mistral AI الفرنسية الترتيب كأكثر نموذج مراعاة للبيانات الشخصية.
جاءت هذه النتائج في تقرير نشرته شبكة “يورونيوز” الفرنسية، استنادًا إلى تحليل دقيق أجرته منصة حماية الخصوصية Incogni.

نماذج الذكاء الاصطناعي
الدراسة التي تضمنت تحليلًا موسعًا شمل أبرز نماذج الذكاء الاصطناعي حول العالم، ركزت على تقييم مخاطر الخصوصية المرتبطة بنماذج اللغات الكبيرة (LLMs)، مثل:
ChatGPT من شركة OpenAI
Gemini من Google
Grok من xAI (إيلون ماسك)
Claude من Anthropic
Copilot من Microsoft
Pi AI من Inflection AI
Meta AI
DeepSeek الصينية
تم اعتماد 11 معيارًا صارمًا لقياس مدى التزام كل نموذج بحماية خصوصية البيانات وتراوحت درجات التقييم من الصفر (الأفضل من حيث حماية الخصوصية) إلى الواحد (الأقل التزامًا)، وشملت هذه المعايير كيفية جمع البيانات، آلية تدريب النماذج، قدرة المستخدمين على التحكم في بياناتهم، ومدى الشفافية في سياسات الخصوصية.
النتائج: أوروبا تتقدم… وأمريكا تتراجع
احتل “Le Chat” المرتبة الأولى بفضل سياساته المقيدة في جمع البيانات، وشفافيته العالية في الإفصاح عن أسلوب معالجة البيانات.
ووفقًا للتحليل، فإن النموذج الفرنسي لا يقوم باستخدام مدخلات المستخدمين لتدريب نفسه افتراضيًا، بل يعتمد فقط على التوجيهات المرتبطة بتحسين خدماته، في خطوة تُعد استثنائية في هذا القطاع سريع النمو.
بينما جاء في المركز الثاني ChatGPT من OpenAI، والذي حاز على تقييم مرتفع بفضل سياسات الخصوصية الواضحة، التي تتيح للمستخدمين فهم كيفية استخدام بياناتهم.
ومع ذلك، أثار التقرير بعض التحفظات حول استخدام بيانات المستخدمين في تدريب النموذج بشكل تلقائي*، ما يجعل من الضروري تطوير سياسات رفض المشاركة بشكل أكثر وضوحًا.
أما المركز الثالث فكان من نصيب Grok من شركة xAI التابعة للملياردير إيلون ماسك، والذي واجه *انتقادات تتعلق بعدم كفاية الشفافية حول آليات جمع البيانات*.
وجاء في المرتبة الرابعة نموذج Claude من شركة Anthropic، الذي رغم تطور قدراته، إلا أن الدراسة كشفت عن مخاوف متزايدة تتعلق بتفاعل بيانات المستخدم مع أداء المنصة.

في الجانب الآخر من التصنيف، حلت شركة Meta AI في المرتبة الأخيرة كأسوأ المنصات من حيث حماية البيانات، تليها Gemini من Google وCopilot من Microsoft.
وأرجعت الدراسة هذه المراكز المتدنية إلى سياسات الشركات التي لا تتيح للمستخدمين رفض استخدام بياناتهم لتدريب النماذج، ما يجعل بيانات المستخدم أكثر عرضة للاستخدام غير المرغوب فيه.
كما أشار التقرير إلى أن بعض هذه النماذج تفتقر إلى الإفصاح الكافي حول أطراف ثالثة قد يتم مشاركة البيانات معها، الأمر الذي يزيد من احتمالات انتهاك خصوصية المستخدمين.
نموذج “Le Chat”: البساطة، الكفاءة، والشفافية
يعد “Le Chat” أحد أبرز الابتكارات الفرنسية في مجال الذكاء الاصطناعي التوليدي، ويتميز بقدرته على *إنشاء محتوى من الصفر أو التعديل على محتوى موجود، مع الحفاظ على خصوصية تامة.
كما أنه يتميز بأنه نموذج مفتوح المصدر، وهي ميزة تمنحه قدرًا أكبر من المصداقية في أوساط المطورين والباحثين.
وتؤكد شركة Mistral AI أن فلسفة تطوير “Le Chat” ترتكز على الجمع بين الكفاءة التقنية واحترام حقوق المستخدمين الرقمية، في وقت يزداد فيه القلق العالمي من استخدام تقنيات الذكاء الاصطناعي في التجسس وجمع البيانات دون علم أو إذن المستخدم.

أهمية الدراسة: وعي المستخدم هو خط الدفاع الأول
تأتي هذه الدراسة في وقت تشهد فيه تطبيقات الذكاء الاصطناعي التوليدي انتشارًا واسعًا على مستوى العالم، حيث يستخدمها الأفراد والمؤسسات لإنشاء النصوص، الأكواد، التصاميم، وغيرها من المحتوى.
وبالرغم من الفوائد الكبيرة التي توفرها هذه النماذج، إلا أن *الوعي بسياسات الخصوصية والقدرة على التحكم في البيانات* تظل من أهم عناصر الاستخدام الآمن.
لذلك، يوصي التقرير المستخدمين بقراءة سياسات الخصوصية بعناية، وتفعيل أي خيارات متاحة لتعطيل استخدام بياناتهم في التدريب، خاصة في النماذج التي لا تتيح خيار “رفض المشاركة” بشكل واضح.
تثبت نتائج هذه الدراسة أن الذكاء الاصطناعي ليس فقط مسألة كفاءة وجودة إنتاج، بل أيضًا التزام أخلاقي وقانوني بحماية المستخدمين.
وفي هذا السياق، يبدو أن النماذج الأوروبية مثل “Le Chat” تقدم مثالًا يُحتذى به في كيفية التوفيق بين التطور التقني والحفاظ على القيم الأساسية لحماية الخصوصية.
فهل تلحق باقي الشركات العالمية بهذا النموذج الجديد؟ أم تبقى الخصوصية ضحية أخرى في سباق الذكاء الاصطناعي؟
❌ لا تنسخ وتلصق من ChatGPT مباشرة
✅ استخدم هذا الموقع مجاناً :
ـ https://t.co/75uCiQr2Zr pic.twitter.com/ylX7bOSuBQ— الذكاء الاصطناعي بالعربية (@AI_Arabic1) May 5, 2025