أمريكا – السابعة الإخبارية
ChatGPT.. في تصريح غير معتاد وصريح، أثار “سام ألتمان”، الرئيس التنفيذي لشركة OpenAI، جدلًا واسعًا بعد أن أكد أن المحادثات التي يجريها المستخدمون مع روبوت الذكاء الاصطناعي “ChatGPT” لا تتمتع بالسرية القانونية، محذرًا من خطورة الإفراط في مشاركة المعلومات الشخصية عبر المنصة.
وجاءت تصريحات ألتمان خلال ظهوره في بودكاست “This Past Weekend” الذي يقدمه المذيع الأمريكي ثيو فون على منصة “يوتيوب”، حيث تحدث بصراحة عن خطورة بعض التفاعلات التي يجريها المستخدمون مع روبوت الدردشة الشهير، لا سيما تلك التي تتعلق بقضايا نفسية وعاطفية وأسرية.

ChatGPT أداة للدعم النفسي؟ لكن بلا حماية قانونية
لفت ألتمان إلى أن كثيرًا من المستخدمين يتحدثون إلى ChatGPT باعتباره أداة مساعدة نفسية أو مدربًا حياتيًا رقميًا، خصوصًا من فئة الشباب والمراهقين، ويكشفون له عن مشاعرهم ومشكلاتهم العاطفية والعائلية، معتبرينه ملاذًا رقميًا آمنًا.
لكن ألتمان حذّر قائلًا:”إذا تحدثت مع معالج نفسي أو طبيب أو محامٍ، فأنت محمي قانونيًا بموجب قوانين السرية المهنية… هذا لا ينطبق على الذكاء الاصطناعي بعد.”
هذا التصريح كشف عن ثغرة قانونية خطيرة في تعاملات الذكاء الاصطناعي مع المستخدمين، إذ لا توجد حتى اللحظة أطر قانونية معترف بها دوليًا تحمي الخصوصية في المحادثات مع الروبوتات الذكية.
احذر المفاجآت القانونية
الأخطر من ذلك أن ألتمان لمّح إلى إمكانية استخدام هذه المحادثات في السياقات القانونية، مشيرًا إلى أن OpenAI قد تُجبر قانونيًا على تسليم محتويات المحادثات في حال وجود دعاوى قضائية، تمامًا كما يُطلب سجل المكالمات أو الرسائل في بعض القضايا.
وقال ألتمان:”إذا تحدثت مع ChatGPT عن أمورك الحساسة، ثم ظهرت قضية قانونية، فقد نُجبر على تسليم تلك المحادثات… وهذا وضع غير سليم على الإطلاق.”
هذا السيناريو المقلق يضع المستخدمين أمام معضلة حقيقية: هل ما يشاركونه من تفاصيل شخصية قد يتحوّل لاحقًا إلى أدلة قانونية ضدهم؟

التشفير؟ لا وجود له هنا
وفي حين تعتمد تطبيقات مثل واتساب وسيجنال تقنيات التشفير من طرف إلى طرف لحماية خصوصية المحادثات، فإن الوضع مختلف تمامًا مع ChatGPT. فشركة OpenAI تحتفظ بحق الوصول الكامل إلى سجلات المحادثات التي يجريها المستخدمون، سواء لأغراض التحسين التقني أو لمراقبة إساءة الاستخدام.
وتلتزم الشركة، بحسب سياساتها المعلنة، بحذف المحادثات في النسخة المجانية خلال 30 يومًا، لكنها في الوقت نفسه تحتفظ بحق أرشفة البيانات التي تراها ضرورية لأسباب أمنية أو قانونية.
دعوى نيويورك تايمز تُشعل الموقف
وتكتسب تصريحات ألتمان حساسية مضاعفة في ظل الدعوى القضائية التي رفعتها صحيفة “نيويورك تايمز” ضد OpenAI مؤخرًا، والتي تُجبر الشركة على أرشفة ملايين المحادثات من مستخدمي ChatGPT، باستثناء الحسابات المدفوعة والمؤسسية التي تحظى بخصوصية أعلى.
هذه الدعوى دفعت الشركة إلى تشديد أنظمتها الأمنية وحفظ البيانات، مما يجعل فرضية استخدام المحادثات في إطار قانوني أكثر واقعية من أي وقت مضى.
الحاجة إلى تشريعات تحمي المستخدم
التصريحات الأخيرة أثارت ردود فعل واسعة على منصات التواصل الاجتماعي، إذ عبّر كثير من المستخدمين عن قلقهم من انعدام الحماية القانونية لمحادثاتهم، خاصة في ظل ازدياد الاعتماد على الذكاء الاصطناعي في المهام الشخصية والدعم النفسي والقرارات الحساسة.
ويطالب خبراء التقنية والقانون حاليًا بضرورة تطوير إطار تشريعي واضح يحكم العلاقة بين المستخدمين وروبوتات الذكاء الاصطناعي، ويضمن خصوصية البيانات ويحدد المسؤولية القانونية بدقة.
الخلاصة: لا تتحدث بحرية تامة مع الذكاء الاصطناعي
حتى الآن، لا توجد حماية قانونية تُضاهي سرية الطبيب أو المحامي عندما تتحدث إلى ChatGPT. ورغم كل فوائد الذكاء الاصطناعي، فإن السرية تبقى “غير مضمونة”، والبيانات التي تشاركها اليوم قد تعود لتُستخدم لاحقًا في سياقات غير متوقعة.
لذا، إن كنت تعتمد ChatGPT كرفيق للدردشة أو الدعم النفسي، فعليك أن تُعيد التفكير مرتين قبل أن تكتب شيئًا شخصيًا أو حساسًا. المحادثة ليست خاصة كما تظن، وقد يكون هناك من يقرؤها لاحقًا… ليس بدافع الفضول، بل بقرار قانوني.
حتى الآن، لا توجد حماية قانونية تُضاهي سرية الطبيب أو المحامي عندما تتحدث إلى ChatGPT. ورغم كل فوائد الذكاء الاصطناعي، فإن السرية تبقى “غير مضمونة”، والبيانات التي تشاركها اليوم قد تعود لتُستخدم لاحقًا في سياقات غير متوقعة.
لذا، إن كنت تعتمد ChatGPT كرفيق للدردشة أو الدعم النفسي، فعليك أن تُعيد التفكير مرتين قبل أن تكتب شيئًا شخصيًا أو حساسًا. المحادثة ليست خاصة كما تظن، وقد يكون هناك من يقرؤها لاحقًا… ليس بدافع الفضول، بل بقرار قانوني.
