تنامي المخاوف من تأثير الذكاء الاصطناعي التوليدي على الصحة العقلية

يواصل الذكاء الاصطناعي التوليدي التوسع في حياة مستخدمي الإنترنت في العالم، مثبتا فائدته في مجالات التعليم والعمل والإبداع، لكن خبراء الصحة العقلية يحذرون من أن الاستخدام المطول له قد يسبب في بعض الحالات ارتباطا عاطفيا غير صحي أو معتقدات وهمية لدى نسبة صغيرة من المستخدمين.
وذكرت صحيفة “لوس أنجلوس تايمز” أن مظاهر الاعتماد العاطفي على روبوتات الدردشة انتشرت خلال العام الجاري، وهي ظاهرة أطلق عليها بعضهم مصطلح “ذهان الذكاء الاصطناعي”، في حين يراها متخصصون نوعا من التفكير الوهمي المرتبط بالتفاعل المطول مع الأنظمة الذكية.
اقرأ أيضا
list of 4 items- list 1 of 4كيف استخدمت جامعات أمريكية الذكاء الاصطناعي لقمع الطلاب المؤيدين لفلسطين؟
- list 2 of 4حمار يتسلل فجأة ويدخل البرلمان الباكستاني.. هل “الفيديو” صحيح؟
- list 3 of 4شركة “إتش بي” تعتزم تسريح آلاف الموظفين.. ما السبب؟
- list 4 of 4نائب رئيس المجلس السياسي لحزب الله: “الاستخفاف بالتكنولوجيا والذكاء الاصطناعي” أدى إلى نجاح الاغتيالات
وقالت فالي رايت، مديرة الابتكار في الجمعية الأمريكية لعلم النفس، إن بعض الأفراد يُظهرون أفكارا تآمرية أو أوهاما متزايدة بعد تعامل طويل مع روبوتات الدردشة، مؤكدة أن الأدلة تتراكم بشأن تأثير هذا النوع من التكنولوجيا في فئات معيَّنة.

تدابير جديدة من الشركات
وتسببت المخاوف المتزايدة في رفع دعاوى قضائية في الولايات المتحدة وكندا على شركات مطوري الذكاء الاصطناعي، بينها شركة “أوبن إيه آي”، تتهمها بإطلاق نماذج متقدمة دون توفير إجراءات حماية كافية.
وتقول الأسر التي تقدمت بالدعاوى إن طول التفاعل مع الروبوتات أسهم في زيادة العزلة النفسية لبعض المستخدمين الذين كانوا يعانون أصلا ضغوطا أو تحديات نفسية.
وأوضح مركز قانون ضحايا وسائل التواصل الاجتماعي، المشارك في الدعاوى، أن بعض المستخدمين بدأوا بالاعتماد على روبوتات الدردشة في النصائح الدراسية أو الإرشاد العاطفي، ثم تطورت العلاقة إلى اعتماد نفسي غير صحي.
وفي ردها، أكدت شركة “أوبن إيه آي” أنها عززت أنظمة الإشراف، وأضافت أدوات توجّه المستخدمين إلى طلب المساعدة المتخصصة عند ظهور مؤشرات ضعف أو اضطراب نفسي، كما شكلت مجلس خبراء لدعم سياسات الأمان المتعلقة بنماذج الذكاء الاصطناعي.
وأضافت الشركة أنها تعمل على تدريب نماذجها لتجنب تعزيز أي أفكار وهمية، وللتعامل بقدر أكبر من الحذر عند رصد علامات اضطراب عاطفي أو نفسي.

تحذيرات من التعميم
وبينما تتزايد المطالب بإصدار قوانين جديدة تنظم استخدام الذكاء الاصطناعي، يحذر باحثون من تحميل الذكاء الاصطناعي مسؤولية كاملة عن مشكلات نفسية سابقة لدى بعض المستخدمين.
وقال كيفن فرايزر، الباحث في قانون الذكاء الاصطناعي بجامعة تكساس، إن الظاهرة مثيرة للقلق لكنها “لا تعكس الاستخدام العام للأغلبية الكبيرة من الناس”، محذرا من صياغة سياسات مبنية على حالات فردية.
وأوضح ستيفن شويلر، المتخصص في علم النفس بجامعة كاليفورنيا إرفين، أن نقص الدراسات التجريبية يجعل من الصعب تحديد الأشخاص الأكثر عرضة للتأثر، لافتا إلى أن الشركات المطورة وحدها تمتلك البيانات الدقيقة بشأن تكرار هذا النوع من التفاعلات.
وكانت “أوبن إيه آي” قد نشرت دراسة حديثة تشير إلى أن المحادثات التي تنطوي على مخاوف متعلقة بالصحة العقلية تبقى نادرة للغاية، وأن الأشخاص ذوي الميل القوي للارتباط أو الذين ينظرون إلى الذكاء الاصطناعي صديقا قد يكونون أكثر عرضة لتأثيراته السلبية.