أمريكا – السابعة الإخبارية
شات جي بي تي.. في تصريح لافت أثار جدلاً واسعًا داخل الأوساط الطبية والتقنية، قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن تقنيات الذكاء الاصطناعي، وخصوصًا منصة “شات جي بي تي”، أصبحت قادرة على تقديم تشخيصات طبية تتفوق على غالبية الأطباء حول العالم.
جاء ذلك خلال مشاركته في مؤتمر الإطار الرأسمالي للبنوك الكبرى، والذي ناقش التأثير المتصاعد لتكنولوجيا الذكاء الاصطناعي على مختلف القطاعات، وخاصة قطاع الرعاية الصحية.

شات جي بي تي: تشخيصات دقيقة… لكن ليست بديلاً عن الأطباء
رغم التصريح المثير حول تفوق “شات جي بي تي” على كثير من الأطباء في تقديم تشخيصات طبية دقيقة وسريعة، حرص ألتمان على التوضيح بأنه لا يرى أن الذكاء الاصطناعي يجب أن يُستخدم كبديل كامل للطبيب البشري.
وقال في كلمته: “شات جي بي تي اليوم، في كثير من الأحيان، يُعد أفضل من معظم الأطباء في تقديم التشخيص الطبي، لكنني لا أريد أن أضع مصيري الطبي بالكامل بين يديه. لا يزال الناس يذهبون إلى الأطباء، ويجب أن يظل هناك إشراف بشري دائم”.
هذا الموقف يعكس رؤية متوازنة ترى في الذكاء الاصطناعي شريكًا للطبيب، لا منافسًا له. فالأداة قد تساهم في تحسين دقة التشخيص، وتقديم اقتراحات مستندة إلى تحليل كميات ضخمة من البيانات الطبية، لكن لا يمكنها تعويض الخبرة السريرية، والحس الإنساني، والتقدير الشخصي للحالة.
الذكاء الاصطناعي في العيادات… خطوة إلى الأمام أم تجاوز غير أخلاقي؟
وفيما لا تزال الجوانب الإيجابية لاستخدام الذكاء الاصطناعي في الطب قيد البحث والتطوير، ظهرت حالة مثيرة للجدل من مدينة بيرث الأسترالية، كشفت التحديات الأخلاقية التي قد تنجم عن استخدام تلك التقنيات دون ضوابط واضحة.
فقد شاركت امرأة أسترالية تجربتها على منصة Reddit، ذكرت فيها أنها تفاجأت عندما قام طبيبها بإدخال نتائج تحاليلها إلى “تشات جي بي تي” خلال جلسة الكشف، ثم اعتمد على توصيات المنصة في تقديم الرأي الطبي دون مناقشة أو تحليل شخصي.
وكتبت في منشورها:“لم أشعر يومًا أنني أمام طبيب غير كفء بهذا الشكل. بدا الأمر كسولًا وغير مهني تمامًا”، مضيفة أنها قدمت شكوى رسمية إلى هيئة تنظيم المهن الصحية الأسترالية (AHPRA)، وتفكر في اتخاذ إجراءات قانونية إضافية.
أثارت هذه الواقعة ردود فعل متباينة على منصات التواصل الاجتماعي. فبينما رأى البعض أن استخدام “شات جي بي تي” بهذه الطريقة يُعد تفريطًا في المسؤولية الطبية، اعتبر آخرون أن الأمر لا يثير القلق طالما أن الطبيب هو من يتخذ القرار النهائي، ويستخدم الأداة كمرشد لا كمصدر وحيد.

ثورة في الرعاية الصحية… لكنها تتطلب توازناً حذرًا
لا شك أن الذكاء الاصطناعي قد بدأ يُحدث ثورة صامتة في عالم الرعاية الصحية. من تحليل صور الأشعة، إلى التنبؤ بالأمراض، وكتابة التقارير الطبية، وحتى متابعة تطوّر الحالات المزمنة، تزداد قدرة هذه النماذج على تحسين الكفاءة الطبية وتخفيف الضغط عن الأطباء.
لكن في الوقت نفسه، لا تزال هناك مخاوف حقيقية تتعلق بـ:
• الدقة في الحالات المعقدة
• فهم السياق العاطفي والنفسي للمريض
• الخصوصية وسرية البيانات
• إساءة الاستخدام أو الاعتماد الزائد
وفي هذا السياق، شدد سام ألتمان أيضًا على ضرورة التعامل مع الذكاء الاصطناعي بحذر، لا سيما في الجوانب الأمنية. وقال:
“بعض المؤسسات المالية لا تزال تعتمد على بصمة الصوت للتحقق من الهوية، وهذا يُعد خطأً كبيرًا، لأن تقنيات الذكاء الاصطناعي باتت قادرة على توليد أصوات مزيفة يصعب تمييزها عن الأصل”.
بين التحذير والإمكانات… من المسؤول؟
التصريحات الأخيرة لألتمان تلقي الضوء على ضرورة وجود إطار أخلاقي وقانوني واضح لاستخدام الذكاء الاصطناعي، خاصة في القطاعات الحيوية كالصحة والتمويل. فالفارق بين استخدام الأداة لتحسين حياة الناس، وبين توظيفها بطرق تفتقر للمهنية أو الرقابة، قد يكون حرفيًا مسألة حياة أو موت.
وفي حين تدعو شركات التكنولوجيا إلى مزيد من تبني الذكاء الاصطناعي، يؤكد المتخصصون في الطب والأخلاقيات أن التحول لا ينبغي أن يسبق التنظيم. فالمريض ليس حقل تجارب، والأطباء ليسوا مجرد وسطاء بين الإنسان والخوارزمية.
الذكاء الاصطناعي في الطب… أداة عظيمة تحتاج لعقل بشري حكيم
الذكاء الاصطناعي بات اليوم جزءًا من مستقبل الطب بلا شك، وقدرته على تحليل البيانات الضخمة تمنحه إمكانيات قد تفوق القدرات الفردية للطبيب. لكن هذا لا يعني أن الطبيب أصبح زائدًا عن الحاجة، بل إن العلاقة بين الاثنين يجب أن تكون تكاملية لا تنافسية.
تصريحات سام ألتمان، وتحذيره من الانفلات الأخلاقي، يعكسان جوهر التحدي في عصر التكنولوجيا: كيف نستخدم الذكاء الاصطناعي دون أن نفقد “الذكاء الإنساني”؟
كثير صاروا يستخدمون ChatGPT كوسيلة لفهم اضطراباتهم النفسية
يقرؤون و يسألون و يربطون تجاربهم بأعراض محددة
بس فعليًا هل فرق معك ؟
هل سبق واستفدت من شات جي بي تي في التعامل مع اضطراب نفسي ؟ شاركنا pic.twitter.com/GZTKrFltoh— Thamer (@_2ciir) July 7, 2025