في ظل التطورات المتسارعة في مجال الذكاء الاصطناعي، أطلق كبار الخبراء والمطورين تحذيرات واضحة بشأن الإفراط في الاعتماد على أدوات الذكاء الاصطناعي التوليدي، وعلى رأسها "شات جي بي تي" من شركة OpenAI. .
ومن جُملة هذه التحذيرات ما صرّح به كل من نيك تورلي، رئيس منتج ChatGPT، وسام ألتمان، الرئيس التنفيذي لـ OpenAI، بشأن المخاطر المرتبطة بدقة المخرجات ومصداقيتها، خاصة في المجالات الحساسة مثل الرعاية الصحية والاستشارات القانونية.
في تصريح نُقل عن موقع CNET، شدد نيك تورلي على ضرورة النظر إلى "شات جي بي تي" كـ"رأي ثانٍ" وليس كمصدر أساسي للمعلومات، مشيرًا إلى أن النموذج يعاني من مشكلات مستمرة في الدقة، وأن الاعتماد عليه بشكل كامل قد يؤدي إلى نتائج مضللة.
تأتي هذه التصريحات في وقت يتزايد فيه دمج نماذج الذكاء الاصطناعي في قرارات الحياة اليومية، ما يثير تساؤلات حول مدى موثوقيتها.
يعاني ChatGPT، كغيره من نماذج اللغة الكبيرة، من ظاهرة تُعرف بـ"الهلوسة"، حيث يُنتج النظام معلومات تبدو صحيحة لكنها مختلقة بالكامل. هذه الثغرة، بحسب تورلي، تُسلّط الضوء على قصور جوهري: فالذكاء الاصطناعي قادر على تحليل كميات هائلة من البيانات، لكنه يفتقر إلى آليات التحقق البشري التي تضمن الدقة والموثوقية.
وفي سياق متصل، أكّد سام ألتمان، الرئيس التنفيذي لـ OpenAI، في مقابلة نُشرت على "تايمز أوف إنديا"، أن الثقة الزائدة بقدرات ChatGPT تمثل مخاطرة، لافتًا إلى أن هذه النماذج يجب أن تُعامل على أنها أقل موثوقية من المصادر التقليدية للمعلومة، خصوصًا في المواقف الحرجة التي تتطلب دقة عالية.
إلى جانب التحذيرات التقنية، عبّر ألتمان عن قلقه من ميل بعض المستخدمين إلى التعامل مع ChatGPT كمصدر موثوق أو حتى كـ"معالج نفسي"، في تجاهل واضح لطبيعة الأداة. وفي حديثه لموقع CNET، أشار إلى أن غياب السرية في تفاعلات المستخدم مع الذكاء الاصطناعي "مُقلق للغاية"، لاسيما وأن مدخلات المستخدمين قد تكون قابلة للكشف قانونيًا في بعض الحالات.
أظهرت تجارب عدة، بينها تحقيق أجرته CNET، أن ChatGPT قد يقدم معلومات غير دقيقة بل وخطيرة في بعض الحالات، مثل تقديم نصائح تتعلق بالسلامة المنزلية أثبتت عدم صحتها. كما كُشف عن أخطاء متكررة في تواريخ تاريخية وتفسيرات علمية، مما يُعزز دعوات الخبراء إلى ضرورة التحقق من مخرجات الذكاء الاصطناعي عبر مصادر موثوقة.
ليست OpenAI وحدها في دائرة النقد، إذ تواجه أدوات أخرى مثل Gemini من Google وCopilot من Microsoft تقييمات مماثلة، خصوصًا فيما يتعلق بإضعاف التفكير النقدي لدى المستخدمين نتيجة الاعتماد المفرط على الذكاء الاصطناعي.
استجابةً لتلك التحديات، تسعى الشركات المطورة إلى تعزيز أنظمة التحقق وتقليل أخطاء النماذج. وفي مقابلة مع The Verge، ناقش نيك تورلي خطط OpenAI المستقبلية، التي تتضمن تعزيز الحماية من المعلومات المضللة في الإصدارات القادمة مثل GPT-5.
على صعيد السياسات، بدأت الحكومات في وضع أطر تنظيمية للذكاء الاصطناعي. فعلى سبيل المثال، تبنّى الاتحاد الأوروبي قانونًا يُصنّف تطبيقات الذكاء الاصطناعي عالية الخطورة ويُلزم بالشفافية. وفي الولايات المتحدة، تتصاعد الدعوات نحو تشريعات مشابهة للحد من استخدام الذكاء الاصطناعي في التضليل الإعلامي وغيره من الأغراض الضارة.
في ضوء هذه التحديات، تتجه العديد من القطاعات، مثل التمويل والتعليم والرعاية الصحية، إلى تبنّي أنظمة هجينة تجمع بين الذكاء الاصطناعي وإشراف الخبراء البشريين. وتُطور بعض الشركات بروتوكولات صارمة لتدقيق مخرجات الذكاء الاصطناعي، بما يضمن الامتثال والدقة.
وفي ختام التصريحات، يؤكد قادة الصناعة أن الطريق إلى الأمام لا يتمثل في رفض الذكاء الاصطناعي، بل في استخدامه بحذر ووعي.
وسبق أن صرح ألتمان في مقابلة مع Yahoo Finance، فإن "الدهشة من مدى الثقة التي يمنحها المستخدمون لهذه التكنولوجيا تضعنا أمام مسؤولية أخلاقية كبرى في توجيه تطورها".
