Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار

مخاوف من استخدام الذكاء الاصطناعى فى العلاج النفسى


يثير استخدام العلاج باستخدام الذكاء الاصطناعي في رعاية الصحة العقلية قلق مقدمي الخدمة والباحثين بشكل متزايد، بشأن ما إذا كانت الخوارزميات المعقدة وثغرات الخصوصية والمخاطر الأخرى يمكن أن تفوق وعد التكنولوجيا وتؤدي إلى نتائج خطيرة للمرضى، وفقًا لتقرير سكاى نيوز عربية. 


ما أهمية هذه القصة؟


• في إطار الانتشار السريع لتطبيقات الذكاء الاصطناعي وعلى رأسها تشات جي بي تي، والاستخدام المتزايد لها في مجالات عديدة، ومنها المساعدة في توفير المعلومات الصحية، يتطلب الأمر إطار ينظم حدود الاستعانة بالذكاء الاصطناعي عندما يتعلق الأمر بصحة المرضى وسلامتهم، خاصة في المجال النفسي الذي يعتمد على التحاور بين المريض وطبيبه في الأساس.  


 


• في الفترة الأخيرة، أكتشف مركز “بيو” للأبحاث أن هناك شك واسع النطاق حول ما إذا كان استخدام الذكاء الاصطناعي لتشخيص الحالات وعلاجها سيسهم في عدم تفاقم الحالات المرضية.


 


• أشارت الجمعية الأميركية للطب النفسي إلى الانتشار الواسع لتطبيقات الصحة العقلية، أن المنظمين يتعرضون لضغوط شديدة لمواكبة ذلك.


 


• تقدر الجمعية الأميركية للطب النفسي أن هناك أكثر من 10 آلاف تطبيق يتم تداولها في متاجر التطبيقات، لافتة إلى أن غالبية التطبيقات غير موافق عليها. 


 


ومن شأن انتشار روبوتات الدردشة المدعومة بالذكاء لاصطناعي مثل تطبيقات Wysa و FDA المعتمدة، تخفيف النقص في مستشاري الصحة العقلية فيما يتعلق بحالات تعاطي المخدرات. 


كيف تستخدم هذه التقنيات؟


• يتم نشر هذه التقنية لتحليل محادثات المرضى وتنقيح الرسائل النصية لتقديم توصيات بناءً على ما يقوله المرضى للأطباء، وفقا لموقع أكسيوس الإخباري،


 


• يتنبأ التطبيق بمخاطر إدمان المواد الأفيونية، ويكشف عن اضطرابات الصحة العقلية مثل الاكتئاب.


مكمن الخطر


وينصب القلق الآن، وفقا للمصدر، حول ما إذا كانت التكنولوجيا قد بدأت في تجاوز الحدود واتخاذ قرارات طبية، وما  يمكن أن تقوم به إدارة الغذاء والدواء الأميركية لمنع مخاطر السلامة على المرضى.


 


وأفاد موقع أكسيوس، أنه منظمة KoKo غير الربحية للصحة العقلية ، استخدمت مؤخرًا ChatGPT كمستشار للصحة العقلية لحوالي 4000 شخص لم يكونوا على دراية بالإجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما أثار انتقادات من علماء في الأخلاقيات الطبية.


 


كما يلجأ أشخاص آخرون إلى ChatGPT بصفتهم معالجًا شخصيًا على الرغم من التحذيرات من المنصة التي تقول إنها ليست مخصصة لغرض استخدامها للعلاج


 


من جهتها، تقوم إدارة الغذاء والدواء الأميركية (FDA) بتحديث إرشادات التطبيقات والبرامج كل بضع سنوات منذ عام 2013، وأطلقت مركزًا صحيًا رقميًا في عام 2020 للمساعدة في تقييم ومراقبة الذكاء الاصطناعي في الرعاية الصحية.


تخفيف القيود


في وقت مبكر من جائحة كورونا، خففت إدارة الغداء والدواء الأميركية بعض متطلبات ما قبل التسويق لتطبيقات الأجهزة المحمولة التي تعالج الحالات النفسية، لتخفيف العبء على بقية النظام الصحي.


 


لكن عملية مراجعة التحديثات الخاصة بمنتجات الصحة الرقمية لا تزال بطيئة، حسبما أقر مسؤول كبير.


 


وفي غضون ذلك، وجد تقرير لإدارة الغذاء والدواء في سبتمبر الماضي أن إطار عمل الإدارة الحالي لتنظيم الأجهزة الطبية غير مجهز للتعامل مع “سرعة التغيير الضرورية أحيانًا لتوفير ضمان معقول لسلامة وفعالية الأجهزة سريعة التطور”.


استغلال من الشركات


 وقال برادلي طومسون، المحامي المتخصص في إنفاذ إدارة الأغذية والعقاقير (FDA) ، إن ذلك حفز بعض شركات الصحة الرقمية على تجنب العقبات التنظيمية المكلفة والمستهلكة للوقت مثل توفير الأدلة السريرية – والتي قد تستغرق سنوات – لدعم سلامة التطبيق وفعاليته للموافقة عليه.


 


وأضاف على الرغم من التوجيهات، فإن “إدارة الغذاء والدواء الأميركية لم تفعل شيئًا تقريبًا في هذا المجال ، ويبدو الأمر كما لو أن المشكلة كبيرة جدًا، فهم لا يعرفون حتى كيفية البدء في حلها ولا يعرفون حتى ما يجب عليهم فعله”.


 


 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى