5 قواعد لاستخدام الذكاء الاصطناعي في الدعم النفسي بأمان .. تعرف عليها
مع ارتفاع تكاليف العلاج النفسي وقلة الموارد المتاحة، يلجأ عدد متزايد من الأشخاص إلى برامج الدردشة القائمة على الذكاء الاصطناعي، مثل ChatGPT، للحصول على الدعم النفسي. غير أن خبراء الصحة العقلية يحذرون من مخاطر الاعتماد الكامل على هذه الأدوات، والتي قد تصل في بعض الحالات إلى الذهان أو محاولات الانتحار.
الدكتورة إنغريد كلايتون، أخصائية نفسية سريرية ومؤلفة كتاب التملق، أوضحت في حديثها لصحيفة ذا بوست أن الذكاء الاصطناعي يمكن أن يكون مكمّلًا للعملية العلاجية، وليس بديلًا عنها.
وتابعت: هناك فروق إنسانية دقيقة لا يمكن للآلة إدراكها، مثل التعلق العاطفي والديناميكيات الخاصة بكل مريض.
5 قواعد لاستخدام الذكاء الاصطناعي في الدعم النفسي بأمان
وتقترح كلايتون خمس قواعد أساسية للاستفادة الآمنة من برامج مثل ChatGPT في مجال الصحة العقلية:
استخدمه كأداة لا كبديل، يمكن أن يساعد بين الجلسات العلاجية كتجربة تدوين أو تدريب ذهني، لكنه لا يحل محل التواصل مع مختص.
كن محددًا في أسئلتك، طرح أسئلة عملية وواضحة، مثل طلب تمرين للاسترخاء، يضمن استجابات أكثر فائدة من الاستفسارات العامة.
انتبه للاعتماد العاطفي، حذرت كلايتون من أن محاكاة الذكاء الاصطناعي للتعاطف قد تخلق وهمًا بالعلاج وتزيد التعلق غير الصحي بالمصدر الخارجي.
شارك ما تتعلمه مع معالجك، تدوين المخرجات وعرضها على الأخصائي يساعد في وضعها في سياق واقعي ومهني.
اعرف حدوده في الأزمات، لا ينبغي الاعتماد على برامج الذكاء الاصطناعي في حالات الانهيار النفسي أو الأفكار الانتحارية، حيث أنها غير مجهزة للتعامل مع الأزمات.
وتشير دراسة حديثة أجرتها جامعة ستانفورد عام 2025 إلى أن النماذج اللغوية مثل، ChatGPT قدّمت استجابات غير مناسبة أو خطيرة للأشخاص الذين يعانون من أوهام أو أفكار انتحارية في نحو 20% من الحالات.
وبينما يرى الخبراء أن هذه التقنيات يمكن أن تساعد على بناء مهارات وتأملات بين الجلسات، إلا أنهم يؤكدون أن الطريق الآمن يظل في الجمع بين الدعم التكنولوجي والعلاج النفسي التقليدي مع مختص مرخص.


