بدأ الأطباء حول العالم يلاحظون تحولًا جذريًا في سلوك المرضى، إذ لم يعودوا يدخلون العيادات وهم يحملون مجرد قصاصات صحف أو نصائح من الأصدقاء، بل أصبحوا يأتون بتشخيصات طبية شبه مكتملة أو وصفات علاجية صادرة عن أدوات ذكاء اصطناعي وعلى رأسها "شات جي بي تي" في تطور لافت يشهده القطاع الصحي.
ووفقًا لتقرير حديث نشره موقع Medscape الطبي، فإن هذا التحول يعيد رسم معالم العلاقة بين الطبيب والمريض، ويطرح تحديات جديدة تتعلق بالثقة، وسلطة القرار، وحدود المعرفة.
الدكتورة كومارا راجا سوندار، طبيبة الأسرة في مركز "كايزر بيرماننت" في واشنطن، روت في مقال نُشر بمجلة JAMA الطبية حالة أثارت اهتمامها، حيث دخلت إليها مريضة تشكو من دوار، لكنها صاغت شكواها بلغة طبية دقيقة قائلة: "ليس دوارًا، بل شعورًا يسبق الإغماء". ثم اقترحت بثقة إجراء اختبار طاولة الإمالة كوسيلة للتشخيص، حين سألتها الطبيبة إن كانت تعمل في المجال الصحي، أجابت ببساطة: "سألت شات جي بي تي"
تقول سوندار إن المعلومة بحد ذاتها لم تكن مدهشة بقدر ما كانت الثقة التي عبّرت بها المريضة عنها، ما دفعها للتساؤل: من صاحب القرار الطبي في غرفة الفحص اليوم؟
نماذج اللغة الكبيرة مثل "شات جي بي تي" أظهرت قدرة مذهلة على التواصل وتقديم المشورة، لكن مقارنتها بالأطباء تطرح إشكالية كبيرة، خصوصًا في ظل التحديات التي تواجهها الأنظمة الصحية، مثل قصر وقت الاستشارات، ونقص الكوادر، وضغوط الموارد.
تقول سوندار: "تحت وطأة المتطلبات المتنافسة، غالبًا ما أغفل عن الدقة، بل عن جعل المرضى يشعرون بأن صوتهم مسموعًا."
وتضيف أن المرضى أصبحوا يتوقعون من الأطباء إجابات فورية ودقيقة تضاهي ما يحصلون عليه من أدوات الذكاء الاصطناعي، دون إدراك للقيود الواقعية التي تحكم الرعاية الصحية.
ومع تزايد عدد المرضى القادمين إلى العيادات وهم مسلحون بمعلومات من الذكاء الاصطناعي، يواجه الأطباء صعوبات عملية متزايدة. طلبات إجراء فحوصات متقدمة – مثل "اختبار الطاولة المائلة" أو فحوصات الهرمونات – تصطدم أحيانًا بواقع الانتظار الطويل أو عدم توفر الموارد.
تحذّر سوندار من ترسيخ حالة من الدفاعية المسبقة لدى الأطباء بسبب شيوع استخدام هذه الأداة التي أصبحت منافسًا لقرارات الطبيب، إذ تقول "بدأنا نسمع تليقائيًا عبارة: "لقد سألت وتحدثت مع ChatGPT حتى قبل أن نسمع شكوى المريض نفسه. وهذا يقوّض أساس الثقة بين الطبيب والمريض."
لكن الذكاء الاصطناعي ليس مجرد مصدر للمعلومة، بل أداة تمكين، وفقًا لما قاله أحد المرضى لسوندار: "هكذا يمكنني الدفاع عن نفسي بشكل أفضل."
يُظهر ذلك بوضوح أن الذكاء الاصطناعي يُستخدم من قبل بعض المرضى كوسيلة للمناصرة، والمطالبة بقرارات تشاركية، بدلًا من الخضوع الكامل لرأي الطبيب.
وتدعو سوندار الأطباء لتبنّي أسلوب أكثر تعاطفًا، تبدأه بالاستماع الحقيقي والتقدير لمخاوف المريض، قبل الدخول في النقاش السريري: "أريد أن أعرب عن تعازيّ. لا أستطيع تخيّل شعورك. أريد أن نناقش هذا سويًا، ونضع خطة مناسبة."
ما رصده الدكتور سوندار في الولايات المتحدة ليس حالة استثنائية، بل جزء من ظاهرة عالمية آخذة في الاتساع. يُبرز تقرير صادر عن موقع Medscape الطبي أن الأطباء في مختلف أنحاء العالم باتوا يواجهون مرضى مطّلعين على أدوات الذكاء الاصطناعي، وأصبح هذا السلوك يُمثّل القاعدة لا الاستثناء.
في ألمانيا، على سبيل المثال، أفاد أطباء أمراض النساء بأن العديد من النساء يلجأن إلى ChatGPT للحصول على استشارات تتعلق باضطرابات الدورة الشهرية، وغالبًا ما يصادفن توصيات متضاربة أو مثيرة للقلق. كما أشار أخصائيو الطب الباطني إلى أن البحث عن الآثار الجانبية للأدوية عبر الإنترنت ولا سيما من خلال جوجل يؤدي في بعض الحالات إلى ظهور أعراض لدى المرضى لم يسبق لهم أن شعروا بها من قبل، مدفوعين بما يُعرف بظاهرة "التأثير الإيحائي".
في مواجهة هذا الواقع الجديد، دعا أطباء شاركوا في منتديات إلكترونية متخصصة إلى تبني استراتيجيات تجمع بين الشفافية والتثقيف المنهجي، مع استخدام روح الدعابة كأداة للتخفيف من حدة المواقف.
وعلّق أحدهم قائلًا: "الاستشارة الإلكترونية باتت تأخذ معنًى جديدًا تمامًا عندما يدخل الذكاء الاصطناعي الغرفة مع المريض."
وتجلّت مخاطر هذه التحولات الرقمية في حادثة بارزة نُشرت في مجلة حوليات الطب الباطني في أغسطس 2025، حين لجأ رجل يبلغ من العمر 60 عامًا إلى ChatGPT سعيًا لإيجاد بديل صحي لملح الطعام. أوصى البرنامج باستخدام بروميد الصوديوم وهو مركب يُستخدم عادة في تنظيف حمامات السباحة، وليس للاستهلاك البشري.
وبعد شهور من استخدامه للمادة استنادًا إلى النصيحة الرقمية، نُقل الرجل إلى المستشفى وهو يعاني من جنون الارتياب واضطرابات إدراكية حادة، تبيّن لاحقًا أنه مصاب بتسمم نادر نتيجة تراكم البروميد في الجسم، وهي حالة شبه منقرضة منذ أوائل القرن العشرين.
