Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار

هل يمكن لروبوت الدردشة لعب دور المعالج النفسى؟


تسببت مديرة في شركة الذكاء الاصطناعي OpenAI في إثارة الذعر مؤخرًا عندما كتبت أنها أجرت للتو محادثة شخصية وعاطفية تمامًا مع برنامج الدردشة ChatGPT التابع لشركتها، حيث نشرت ليليان وينج تجربتها على موقع X، تويتر سابقًا، ما أثار سيلًا من التعليقات السلبية التي اتهمتها بالتقليل من أهمية المرض العقلي.


 


ووفقا لما ذكره موقع “phys”، طلب فريق من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة ولاية أريزونا، خلال تجربة حديثة، من أكثر من 300 مشارك التفاعل مع برامج الذكاء الاصطناعي للصحة العقلية وأعدوهم بما يمكن توقعه، وقيل للبعض إن برنامج الدردشة الآلي كان متعاطفًا، والبعض الآخر كان متلاعبًا، وقيل للمجموعة الثالثة أنه كان محايدًا.


 


واتضح أن أولئك الذين قيل لهم إنهم يتحدثون مع روبوت محادثة مهتم كانوا أكثر احتمالًا بكثير من المجموعات الأخرى لرؤية المعالجين في روبوت الدردشة الخاص بهم على أنهم جديرون بالثقة.


 


وقال بات باتارانتابورن، الباحث المشارك للتقرير: “من هذه الدراسة، نرى أن الذكاء الاصطناعي هو إلى حد ما الذكاء الاصطناعي للمتلقى”، حيث تعمل الشركات الناشئة على دفع تطبيقات الذكاء الاصطناعي التي تقدم العلاج والرفقة وغيرها من أشكال دعم الصحة العقلية لسنوات حتى الآن، وهي تجارة كبيرة.


 


ولعل مثل كل القطاعات الأخرى التي يهدد الذكاء الاصطناعي بتعطيلها، يشعر المنتقدون بالقلق من أن الروبوتات ستحل في نهاية المطاف محل العمال البشر بدلا من أن تكملهم، وفيما يتعلق بالصحة العقلية، فإن القلق هو أنه من غير المرجح أن تقوم الروبوتات بعمل جيد.


 


وكتبت شير سكارليت، الناشطة والمبرمجة، ردًا على منشور Weng الأولى على X: “إن العلاج يهدف إلى الصحة العقلية وهو عمل شاق”، مضيفة “الشعور بالرضا تجاه نفسك أمر جيد، لكنه ليس هو نفسه”.


 


كما أنه مما يزيد من تفاقم الخوف العام بشأن الذكاء الاصطناعي، أن بعض التطبيقات في مجال الصحة العقلية لها تاريخ حديث متقلب.


 


واشتكى مستخدمو Replika، وهو رفيق شهير يعمل بالذكاء الاصطناعي ويتم تسويقه أحيانًا على أنه يحقق فوائد للصحة العقلية، منذ فترة طويلة من أن الروبوت يمكن أن يكون مهووسًا بالجنس ومسيئا.


 


وبشكل منفصل، أجرت منظمة أمريكية غير ربحية تدعى كوكو تجربة في فبراير مع 4000 عميل يقدمون الاستشارة باستخدام GPT-3، ووجدت أن الاستجابات الآلية ببساطة لم تنجح كعلاج.


 


وكتب المؤسس المشارك للشركة، روب موريس، على موقع X: “إن محاكاة التعاطف تبدو غريبة وفارغة”.


 


وكانت النتائج التي توصل إليها مماثلة لما توصل إليه باحثون من معهد ماساتشوستس للتكنولوجيا بأريزونا، الذين قالوا إن بعض المشاركين شبهوا تجربة روبوت الدردشة بـ “التحدث إلى جدار من الطوب”.


 


وقال ديفيد شو من جامعة بازل، الذي لم يشارك في الدراسة التي أجراها معهد ماساتشوستس للتكنولوجيا بأريزونا، لوكالة فرانس برس إن النتائج لم تكن مفاجئة.


 


لكنه أشار إلى أنه “يبدو أنه لم يتم إخبار أي من المشاركين فعليًا بفكرة روبوتات الدردشة والدراسة التي تجرى”.


 


ونتبين من كل ذلك إن الطريقة التي يتم بها تقديم الذكاء الاصطناعي للمجتمع مهمة لأنها تغير كيفية تجربة الذكاء الاصطناعي.


 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى