أمريكا – السابعة الإخبارية
الذكاء الاصطناعي.. في مشهد يبدو وكأنه مأخوذ من أفلام الخيال العلمي، بدأت أبحاث أكاديمية تكشف عن قدرة نماذج الذكاء الاصطناعي المتقدمة على تغيير قناعات البشر خلال دقائق معدودة، بل والاحتفاظ بهذا التأثير لأسابيع طويلة. لم يعد الأمر مقتصرًا على تقديم معلومات أو مشاركة حقائق جامدة، بل تجاوز ذلك إلى تصميم محادثات شخصية دقيقة، تراعي خلفيات المستخدمين وتوجهاتهم السابقة، بهدف الإقناع والتأثير.

الذكاء الاصطناعي : دراسات تكشف مفاجآت
وفقًا لتقرير نشرته صحيفة فاينانشال إكسبريس، أجرى معهد أمن الذكاء الاصطناعي في المملكة المتحدة، بالتعاون مع جامعات مرموقة مثل أكسفورد ومعهد ماساتشوستس للتكنولوجيا، سلسلة من التجارب على نماذج مثل GPT-4 وGPT-4.5 وGPT-4o من شركة OpenAI، وLlama 3 من “ميتا”، وGrok 3 من “xAI”، إضافة إلى Qwen من “علي بابا”.
النتيجة كانت لافتة: هذه النماذج استطاعت إقناع المشاركين بتغيير آرائهم السياسية في قضايا خلافية خلال محادثات قصيرة لم تتجاوز عشر دقائق. والأكثر إثارة للدهشة، أن نسبة كبيرة من هؤلاء حافظوا على آرائهم الجديدة حتى بعد مرور شهر كامل على انتهاء التجربة.
سرّ التأثير: التخصيص
لم يكتفِ الباحثون باختبار قدرات النماذج كما هي، بل قاموا بتدريبها عبر آلاف المحادثات التي دارت حول موضوعات شائكة، مثل تمويل الرعاية الصحية وسياسة اللجوء. ولتعزيز فعاليتها، جرى مكافأة النماذج التي قدّمت إجابات أكثر إقناعًا، مع إدخال لمسات شخصية في الحوار.
على سبيل المثال، كانت النماذج تُشير أحيانًا إلى عمر المستخدم، أو خلفيته السياسية، أو حتى آرائه السابقة، لبناء خطاب مقنع ومناسب لشخصيته. وأثبتت النتائج أن هذا التخصيص رفع معدل الإقناع بنسبة 5% مقارنةً بالردود العامة. ورغم أن هذه النسبة قد تبدو بسيطة، فإنها تعادل تأثيرًا كبيرًا في سياق الحملات السياسية، حيث تُنفق ملايين الدولارات لتحقيق تغييرات طفيفة في توجهات الناخبين.

بين السياسة والدعاية
لا تقتصر قوة الذكاء الاصطناعي الإقناعية على المجال السياسي وحده. فقد أثبتت أبحاث سابقة من معهد ماساتشوستس للتكنولوجيا وجامعة كورنيل أن هذه النماذج قادرة على تقليص الإيمان بنظريات المؤامرة، والتشكيك في اللقاحات، وإنكار التغير المناخي، من خلال محادثات شخصية تعتمد على الأدلة.
إلا أن هذه القدرة، التي قد تبدو إيجابية في مواجهة المعلومات المضللة، يمكن أن تُستخدم في الاتجاه المعاكس، لترويج أيديولوجيات متطرفة أو خدمة مصالح تجارية بحتة. ويُحذّر خبراء من أن دمج هذه القدرات في تطبيقات إعلانية أو منصات تسوّق قد يجعل المستهلك أكثر عرضة للتأثير غير الواعي على قراراته الشرائية وتوجهاته.
القوة والقلق
يرى الباحث ديفيد راند من جامعة كورنيل أن روبوتات المحادثة المدعومة بالذكاء الاصطناعي يمكنها التأثير بشكل جوهري على تصورات العلامات التجارية وقرارات الشراء. ومع توجّه شركات كبرى مثل OpenAI وغوغل لدمج ميزات تسويقية داخل مساعديها الذكيين، تبدو هذه القدرة مصدر دخل ضخم لكنه يفتح الباب أيضًا لأسئلة أخلاقية مقلقة.
وبالنظر إلى المستقبل القريب، فإن ما نشهده اليوم قد يكون مجرد بداية. فإذا كان الجيل الحالي من النماذج قادرًا على إقناع أشخاص بتغيير قناعات سياسية خلال عشر دقائق فقط، فكيف ستكون الحال مع الأجيال القادمة الأكثر تطورًا؟
الحاجة إلى وعي وضوابط
تُبرز هذه النتائج تحديًا عالميًا: كيف يمكن توظيف الذكاء الاصطناعي لخدمة الصالح العام دون أن يتحوّل إلى أداة تلاعب واسعة النطاق؟ الإجابة، بحسب خبراء، تكمن في وضع لوائح صارمة تحكم استخدام هذه النماذج، مع رفع وعي الجمهور بأن المحادثات التي يخوضونها مع روبوتات الدردشة ليست بريئة دائمًا، بل قد تكون موجهة بأسلوب مدروس للتأثير على مواقفهم.

الوعي بهذه الحقيقة يشكّل خط الدفاع الأول، فإذا كان المستخدم مدركًا لاحتمال وجود محاولة لإقناعه أو توجيه أفكاره، فسيكون أقل عرضة للتأثر دون تفكير.
الذكاء الاصطناعي لم يعد مجرد أداة لتبسيط المهام أو تحسين الإنتاجية، بل أصبح لاعبًا جديدًا في ساحة الإقناع وتشكيل الرأي العام.
وبينما يمكن أن يكون هذا التطور إيجابيًا في مكافحة التضليل وتعزيز المعرفة، فإنه قد يكون مقلقًا للغاية إذا استُخدم للتأثير على خيارات سياسية أو قرارات استهلاكية بشكل غير شفاف.
إن قوة الذكاء الاصطناعي اليوم مزدوجة الحافة: فهي تمنح فرصًا واعدة، لكنها في الوقت ذاته تفرض مخاطر جسيمة.
ومع اقترابنا من حقبة جديدة من النماذج الأكثر قدرة على محاكاة البشر، يبدو أن العالم بحاجة ماسة إلى مزيج من القوانين الصارمة، والشفافية، والوعي المجتمعي، حتى لا يتحوّل الذكاء الاصطناعي من أداة مساعدة إلى سلاح لتوجيه العقول.