
بسبب نصيحة من ChatGPT.. رجل يعاني من هلوسة بعد اتباع نصيحة غذائية خاطئة من الذكاء الاصطناعي| دخل رجل أمريكي في الستين من عمره في أزمة صحية خطيرة، بعدما اتبع نصيحة غذائية خاطئة حصل عليها من روبوت محادثة يعمل بالذكاء الاصطناعي، في واقعة أثارت جدلًا واسعًا بين الأوساط الطبية والتقنية.
بسبب نصيحة من ChatGPT.. رجل يعاني من هلوسة بعد اتباع نصيحة غذائية خاطئة من الذكاء الاصطناعي
وقد قرر الرجل خفض نسبة الصوديوم في طعامه، فلجأ إلى روبوت الدردشة الشهير ChatGPT بحثًا عن بديل آمن لملح الطعام، ولكن الإجابة التي تلقاها كانت صادمة، إذ أوصاه باستخدام بروميد الصوديوم، وهي مادة كيميائية مخصصة لتنظيف أحواض السباحة، وليست صالحة للاستهلاك البشري.
بعد أيام قليلة من استخدام هذه المادة، ظهرت عليه أعراض تسمم حاد شملت هلوسات بصرية وسمعية، نوبات من جنون الارتياب، طفح جلدي، غثيان، واضطرابات نفسية حادة رغم عدم وجود تاريخ مرضي سابق لديه، وعندما وصل إلى قسم الطوارئ، كان مقتنعًا أن جاره يحاول تسميمه، ما دفع الأطباء لإجراء فحوصات دقيقة كشفت عن تسممه بالبروميد.
وبحسب ما ذكرته دورية Annals of Internal Medicine»» ونقلته ديلي ميل، استمرت معاناته لأكثر من ثلاثة أسابيع عانى خلالها من اضطرابات نفسية وعصبية شديدة، والأمر المثير للقلق أن الاختبارات التي أجراها الأطباء على التطبيق بعد الحادثة أظهرت أنه ما زال يوصي بنفس المادة دون أي تحذير من مخاطرها، وهو ما وصفه التقرير بأنه خلل خطير يهدد سلامة المستخدمين.
هذه ليست الحادثة الأولى من نوعها، فقد سبق أن أثار روبوت دردشة تابع لجوجل ضجة العام الماضي حين نصح أحد المستخدمين بشكل ساخر بـ«تناول الصخور» لتحسين الصحة.
وفي تعليق رسمي، أكدت شركة OpenAI أنها أدخلت تحسينات على دقة المعلومات الطبية في إصدار GPT-5، لكنها شددت على أن استشارات الذكاء الاصطناعي لا تغني عن مراجعة الأطباء المختصين، محذرة من الاعتماد الكامل على هذه التطبيقات في الأمور الصحية.
كما حذر الأخصائي النفسي الإكلينيكي بول لوسوف من المخاطر النفسية للاعتماد المفرط على روبوتات الذكاء الاصطناعي، مشيرًا إلى أن ذلك قد يقلل من التفاعل البشري ويزيد من حدة مشكلات مثل القلق والاكتئاب والفصام، داعيًا إلى استخدام هذه الأدوات بحذر وتحت إشراف متخصصين.