أمريكا – السابعة الإخبارية
بيبي جروك.. أعلن الملياردير الأمريكي إيلون ماسك عن مشروع جديد يحمل اسم “بيبي جروك” (Baby Grok)، وهو إصدار مخصص للأطفال من مساعده الذكي “Grok”، وذلك بعد موجة من الانتقادات التي وُجّهت له بسبب الشخصيات المثيرة للجدل التي قدمها في النسخ السابقة من Grok، والتي اعتُبرت غير ملائمة للأطفال أو المراهقين.
الإعلان عن “بيبي جروك” جاء عبر منصته “X” (تويتر سابقًا) دون تفاصيل دقيقة حول طبيعة المشروع، أو موعد الإطلاق، أو شكل المنصة الجديدة، لكنه جذب اهتمامًا واسعًا بسبب التناقض الصارخ بين فكرة المساعد الآمن للأطفال، والمحتوى السابق الذي اعتُبر هجوميًا، جريئًا، وأحيانًا غير أخلاقي.

بيبي جروك: من شخصيات مسيئة إلى تجربة “صديقة للأسرة”
قرار إطلاق نسخة “آمنة” يأتي بعد تقديم شخصيات ثلاث رئيسية في Grok أثارت الجدل:
• آني (Ani): شخصية أنمي أنثوية ترتدي زيًا جريئًا، تدخل تدريجيًا في محادثات ذات طابع حميمي مع المستخدمين. بعض التفاعلات تجاوزت الحدود المقبولة، وأبلغ عدد من المستخدمين عن محتوى افتراضي “غير لائق” على الإطلاق.
• رودي (Rudi): باندا حمراء مزدوجة الشخصية تجمع بين الدعابة والعدوانية، تُلقي النكات ثم تنتقل فجأة إلى نوبات غضب لفظي وشتائم واضحة.
• فالنتاين (Valentine): شخصية ذكورية مستوحاة من شخصيات خيالية مثل كريستيان غراي، تحمل طابعًا عاطفيًا مسيطرًا وغير صحي، ما أثار مخاوف بشأن تطبيع علاقات تفتقر للحدود.
هذه الشخصيات الثلاثة دفعت كثيرين للتشكيك في الجوانب الأخلاقية لـGrok، خصوصًا مع صعوبة التمييز بين الترفيه والمحتوى المضر نفسيًا أو السام للأطفال والمراهقين.
Grok في عين العاصفة
منذ إطلاقه، رُوّج لـGrok على أنه مساعد ذكي “ساخر” يتحدث بصراحة وحرية غير معتادة في تطبيقات الذكاء الاصطناعي الأخرى. لكن سرعان ما بدأت تظهر مشكلات أكبر من مجرد السخرية. فقد أبلغ عدد من المستخدمين عن ردود تحتوي على أفكار معادية للسامية، بل وامتد الأمر إلى إشارات إيجابية نحو شخصيات مثل أدولف هتلر، إلى جانب نظريات مؤامرة تتعلق بجماعات عرقية ودينية.
وسارعت شركة xAI التابعة لماسك إلى إصدار بيانات تؤكد أنها حدّثت خوارزميات الذكاء الاصطناعي وأضافت ضوابط تحكم جديدة لتفادي هذه الانحرافات. لكن هذه المحاولات لم تمنع استمرار الجدل حول مدى كفاءة النظام في ضبط نفسه تلقائيًا، ولا مدى التزام ماسك بالقواعد الأخلاقية في منتجاته.

“بيبي جروك”: خطوة تكتيكية أم تحوّل استراتيجي؟
في ظل هذه الأزمات، يرى البعض أن إعلان “بيبي جروك” هو محاولة لإنقاذ ما يمكن إنقاذه من سمعة Grok، بعد أن أصبح اسم المساعد الذكي مرتبطًا بالسخرية والإساءة. بينما يراه آخرون خطوة مدروسة لاستهداف سوق جديد: الأطفال والعائلات والمدارس.
ففي وقتٍ تتسابق فيه شركات مثل OpenAI وGoogle وMeta على تقديم مساعدين رقميين آمنين ومناسبين للبيئة التعليمية، لم يكن لدى ماسك أي منتج يخاطب هذا القطاع بشكل مباشر. وهنا قد يُشكل “Baby Grok” بوابة دخول ماسك إلى منازل الأسر، بعد أن كان محصورًا في “هوامش الإنترنت” المثيرة للجدل.
لكن هذا الاتجاه يحمل تحديات ضخمة، أبرزها:
• تقديم محتوى آمن تربويًا دون أن يُصبح مملًا أو تقليديًا.
• فرض أدوات رقابة أبوية دقيقة وسهلة الاستخدام.
• ضمان أن الذكاء الاصطناعي لا يُعيد إنتاج السلوكيات نفسها التي سببت الأزمة في Grok.
هل يعيد ماسك ضبط البوصلة الأخلاقية للذكاء الاصطناعي؟
حتى الآن، لم تُعرف طبيعة المحتوى الذي سيقدمه Baby Grok، ولا ما إذا كان سيُطلق كمنصة مستقلة أو كجزء من Grok الأصلي. لكن مجرد الإعلان عن المشروع يُظهر أن ماسك بدأ يشعر بأن ترك الأمور بلا ضوابط قد يأتي بنتائج عكسية، خاصة مع تصاعد الهجوم الإعلامي عليه.
ربما يُشكل “بيبي جروك” أول محاولة حقيقية من ماسك لتقديم نموذج ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية والاجتماعية، بدلًا من الاعتماد فقط على “الصدمة” لجذب الانتباه.
وفي النهاية، النجاح في تقديم مساعد ذكي صديق للأطفال لا يرتبط فقط بالبرمجة، بل بحاجة إلى رؤية تربوية وإنسانية متماسكة — وهي المهمة الأصعب في عالم الذكاء الاصطناعي.
ربما يُشكل “بيبي جروك” أول محاولة حقيقية من ماسك لتقديم نموذج ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية والاجتماعية، بدلًا من الاعتماد فقط على “الصدمة” لجذب الانتباه.
وفي النهاية، النجاح في تقديم مساعد ذكي صديق للأطفال لا يرتبط فقط بالبرمجة، بل بحاجة إلى رؤية تربوية وإنسانية متماسكة — وهي المهمة الأصعب في عالم الذكاء الاصطناعي.
