أمريكا – السابعة الإخبارية
ChatGPT.. في واقعة أثارت جدلاً واسعاً في الأوساط التقنية، أعادت تقارير حديثة تسليط الضوء على قضية حساسة تتعلق بخصوصية مستخدمي أدوات الذكاء الاصطناعي، وذلك بعد اكتشاف ظهور أجزاء من محادثات خاصة أجراها مستخدمون عبر ChatGPT في نتائج بحث جوجل.
هذا الخلل غير المتوقع أعاد طرح سؤال جوهري: إلى أي مدى يمكن الوثوق بمنصات الذكاء الاصطناعي فيحماية بيانات المستخدمين، خصوصاً عند تفعيل قدرات التصفح عبر الإنترنت؟

ChatGPT
بداية القصة: كيف تم اكتشاف تسريب بيانات محادثات المستخدمين؟
وفقاً لموقع TechCrunch، بدأت المشكلة عندما لاحظ عدد من المطورين ظهور جُمل حوارية مأخوذة حرفياً من محادثاتهم مع ChatGPT ضمن تقارير Google Search Console الخاصة بمواقعهم. هذه الجُمل كانت مفصّلة وتشير بوضوح إلى أنها جزء من محادثات حقيقية بين المستخدمين والروبوت، الأمر الذي أثار شكوكاً حول مصدرها.
الباحثان جيسون باكر وسلوبودان مانيتش أجريا تحقيقاً معمقاً أظهر أن المشكلة مرتبطة بنظام التصفح عبر الويب داخل ChatGPT. إذ تبين أن بعض المحادثات كانت تُوجّه من خلال وسم داخلي يسمى “تلميحات بحث” (Search hints)، وهو وسم مخصص لتحسين عمليات البحث وليس للنشر العام. لكن هذا الوسم كان يضيف تلقائياً أجزاء من استفسارات المستخدمين إلى عنوان URL أثناء معالجة طلبات التصفح، ما جعل الروابط قابلة للفهرسة عبر محركات البحث، وعلى رأسها جوجل.
باختصار، وجدت أجزاء من محادثات خاصة طريقها إلى العلن بسبب خلل تقني بسيط ولكنه بالغ التأثير.
OpenAI ترد: خلل محدود وتمت معالجته
في بيان نقلته Ars Technica، أكدت شركة OpenAI أنها كانت على علم بالمشكلة فور الإبلاغ عنها، وأنها سارعت لإصلاحها. الشركة شددت على أن التسريب طال “عدداً محدوداً للغاية” من المستخدمين، وأن البيانات المكشوفة لم تتضمن كلمات مرور أو معلومات حساسة مباشرة، بل مجرد نصوص حوارية ناتجة عن التفاعل مع ميزة التصفح.
لكن رغم ذلك، اعترفت OpenAI بأن الحادثة تكشف عن “التحديات التقنية المرتبطة بدمج أدوات الذكاء الاصطناعي مع الإنترنت المفتوح”، مشيرة إلى أن تطوير تقنيات تعتمد على جمع البيانات ومعالجتها آنياً يحتاج إلى مستويات أعقد من الحماية.
هذه ليست المرة الأولى التي يواجه فيها ChatGPT انتقادات تتعلق بالخصوصية. ففي وقت سابق، اكتشف باحثون أن جوجل تفهرس روابط لمحادثات قام المستخدمون بمشاركتها عبر خاصية الروابط العامة، وهي مشكلة كانت مرتبطة بخيارات المشاركة. لكن الخلل الجديد بدا أخطر لأنه وقع دون أي تدخل من المستخدمين.

قلق واسع.. وثقة تهتز
الحادثة الأخيرة فتحت باباً واسعاً للنقاش حول مستقبل أدوات الذكاء الاصطناعي، خاصة تلك التي تعتمد على التصفح المباشر للويب. فإذا كانت مجرد ثغرة صغيرة يمكن أن تكشف محادثات شخصية للعامة، فكيف يمكن للمستخدم العادي تقييم مستوى المخاطر التي قد يتعرض لها خلال استخدامه اليومي؟
يرى محللون تقنيون أن المشكلة تكمن في أن المستخدم يمنح أدوات الذكاء الاصطناعي “ثقة كاملة” عند كتابة استفساراته، وغالباً ما تحتوي هذه الاستفسارات على تفاصيل دقيقة تتعلق بالعمل أو الحياة الشخصية. وبالتالي، فإن أي خطأ تقني، حتى وإن كان بسيطاً، قد يؤدي إلى كوارث حقيقية.
كيفه تحمي خصوصيتك بعد حادثة تسريب محادثات ChatGPT؟
رغم أن OpenAI أعلنت إصلاح المشكلة، إلا أن خبراء الأمن السيبراني شددوا على ضرورة اتخاذ المستخدمين عددًا من الخطوات الوقائية لضمان عدم تكرار أي تسريب مشابه:
1. تجنّب مشاركة معلومات حساسة
ينصح الخبراء بعدم إدخال بيانات خاصة مثل الأرقام البنكية أو المعلومات المهنية السرية أو التفاصيل العائلية داخل أي روبوت دردشة يعتمد على تعلم الآلة.
2. استخدام وضع التصفح المتخفي أو المعزول
عند تجربة ميزات متصلة بالإنترنت مثل التصفح الداخلي في ChatGPT، من الأفضل استخدام وضع التصفح الخاص لتقليل فرص تتبع البيانات.
3. تعطيل وضع التصفح عند عدم الحاجة
إذا كان المستخدم لا يحتاج للوصول إلى مواقع أو محتوى عبر الإنترنت، فإيقاف هذه الميزة يقلل من احتمالات تسريب البيانات بشكل كبير.
4. مسح سجل الدردشة بانتظام
يُفضل حذف المحادثات بين فترة وأخرى أو تعطيل ميزة الاحتفاظ بالسجل، حيث يقلل ذلك من حجم البيانات المخزنة على خوادم الشركة.
وعي رقمي ضرورة.. وليس رفاهية
خلصت التقارير التقنية إلى أن الاعتماد المتزايد على أدوات الذكاء الاصطناعي في مختلف جوانب الحياة — من التعليم والعمل إلى الترفيه والتواصل — يجعل المستخدمين أكثر عرضة لمخاطر الخصوصية، خاصة في ظل تطوّر قدرات المنصات بوتيرة أسرع من تطوّر آليات الحماية.
وبينما أصبحت أنظمة الذكاء الاصطناعي قادرة على تحليل البيانات وتوليد النصوص بدقة مذهلة، تبقى مسؤولية حماية المعلومات الشخصية مشتركة بين الشركات المطوّرة والمستخدمين أنفسهم.
فالتكنولوجيا، مهما كانت متقدمة، ليست معصومة من الأخطاء. والأمان الرقمي لم يعد يعتمد فقط على أنظمة الحماية، بل على وعي المستخدم بخطورة مشاركة بياناته في بيئة متغيرة وسريعة التطور مثل بيئة الذكاء الاصطناعي.
حادثة تسريب محادثات ChatGPT عبر نتائج بحث جوجل قد تبدو في ظاهرها خللاً تقنياً محدوداً، لكنها تدق ناقوس الخطر حول الإمكانات المستقبلية لمثل هذه الأدوات، خصوصاً عندما تجمع بين قوة الذكاء الاصطناعي والتصفح عبر الإنترنت.

وحتى مع تأكيد OpenAI معالجة المشكلة، يبقى السؤال الأهم: هل ستتمكن هذه المنصات من مواكبة التحديات الأمنية المتصاعدة؟
الإجابة ليست واضحة بعد، لكن المؤكد هو أن المستخدم يجب أن يبقى في حالة يقظة دائمة، وأن يتعامل مع أي منصة ذكية باعتبارها — مهما كانت موثوقة — ليست مكاناً لتبادل البيانات الحساسة.
