Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار

تعرف على أكبر 3 مخاوف للذكاء الاصطناعى كشف عنها الخبراء


الذكاء الاصطناعي خطير مثل الحرب النووية والأوبئة العالمية، هذا وفقًا لأحدث تحذير صادر عن مركز أمان الذكاء الاصطناعي (CAIS)، وهذا البيان مدعوم من جانب اللاعبين الرئيسيين في صناعة الذكاء الاصطناعي بما في ذلك Sam Altman، رئيس OpenAI منشئ ChatGPT.


 


ولعل التحذير هو واحد من العديد من التحذيرات التي صدرت في الأشهر الأخيرة، ويزعم بعض المبدعين الأوائل للتكنولوجيا أننا نتجه أولاً نحو تدمير البشرية بينما يحذر آخرون من أن التنظيم مطلوب بشدة.


 


قال ديفيد كروجر، خبير الذكاء الاصطناعي وأستاذ مساعد في جامعة كامبريدج، إنه بينما قد يرغب الناس في سيناريوهات محددة عندما يتعلق الأمر بالمخاطر الوجودية للذكاء الاصطناعي، لا يزال من الصعب الإشارة إلى هذه السيناريوهات بأي درجة من اليقين.


 


ومع وضع ذلك في الاعتبار، إليك بعض المشكلات المحتملة التي يقلق الخبراء بشأنها، وفقا لما ذكره موقع “business insider”: 


 


1. استحواذ الذكاء الاصطناعي


تعد من أكثر المخاطر التي يتم ذكرها شيوعًا أن الذكاء الاصطناعي سيخرج عن سيطرة منشئه، يشير الذكاء الاصطناعي العام (AGI) إلى الذكاء الاصطناعي الذي هو أكثر ذكاءً من البشر في مجموعة واسعة من المهام. 


ولكن أنظمة الذكاء الاصطناعي الحالية ليست واعية حتى وإن صنعت لتكون شبيهة بالبشر، كما صُمم ChatGPT، على سبيل المثال، لجعل المستخدمين يشعرون وكأنهم يتحدثون مع شخص آخر، كما قالت جانيس وونج عن معهد آلان تورينج.


 


كما أن الخبراء منقسمون حول كيفية تحديد الذكاء الاصطناعي العام بالضبط، لكنهم يتفقون عمومًا على أن التكنولوجيا المحتملة تشكل أخطارًا على البشرية تحتاج إلى البحث والتنظيم.


 


ومن جانبه، قال كروجر إن أوضح مثال على هذه الأخطار هو المنافسة العسكرية بين الدول، مضيفا “التنافس العسكري مع الأسلحة المستقلة – الأنظمة التي بحكم تصميمها لديها القدرة على التأثير على العالم المادي والتسبب في ضرر، يبدو أكثر وضوحًا كيف يمكن أن تنتهي هذه الأنظمة بقتل الكثير من الناس”.


 


وأوضح كروجر، “هناك سيناريو حرب شاملة مدعوم بالذكاء الاصطناعي في المستقبل عندما يكون لدينا أنظمة متطورة أكثر ذكاءً من الناس، أعتقد أنه من المحتمل جدًا أن تخرج الأنظمة عن نطاق السيطرة وقد ينتهي الأمر بقتل الجميع نتيجة لذلك”.


 


2. تسبب الذكاء الاصطناعي في بطالة جماعية


هناك إجماع متزايد على أن الذكاء الاصطناعي يشكل تهديدًا لبعض الوظائف.


 


قال أبهيشيك جوبتا، مؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي، إن احتمال فقدان الوظائف بسبب الذكاء الاصطناعي هو التهديد الوجودي الأكثر “واقعية وفورية وربما إلحاحًا”.


 


وأضاف: “نحن بحاجة إلى النظر في الافتقار إلى الهدف الذي قد يشعر به الناس لفقدان الوظائف بشكل جماعي”. “الجزء الوجودي منه هو ما الذي سيفعله الناس ومن أين سيذهبون للحصول على هدفهم؟”


 


وأضاف: “هذا لا يعني أن العمل هو كل شيء، لكنه جزء لا بأس به من حياتنا”.


 


بدأ الرؤساء التنفيذيون في أن يكونوا صريحين بشأن خططهم للاستفادة من الذكاء الاصطناعي، على سبيل المثال، أعلن الرئيس التنفيذي لشركة IBM، آرفيند كريشنا، مؤخرًا أن الشركة ستبطئ التوظيف للوظائف التي يمكن استبدالها بالذكاء الاصطناعي.


 


3. تحيز الذكاء الاصطناعى


قال الخبراء، إنه إذا تم استخدام أنظمة الذكاء الاصطناعي للمساعدة في اتخاذ قرارات مجتمعية أوسع، فقد يصبح التحيز المنهجي خطرًا كبيرًا.


كانت هناك بالفعل العديد من الأمثلة على التحيز في أنظمة الذكاء الاصطناعي التوليدية، بما في ذلك الإصدارات المبكرة من ChatGPT، وأضافت الشركة المصنعة OpenAI المزيد من حواجز الحماية لمساعدة ChatGPT في تجنب الإجابات الإشكالية من المستخدمين الذين يطلبون من النظام محتوى مسيء.


 


ويمكن لنماذج صور الذكاء الاصطناعي التوليدية إنتاج صور نمطية ضارة، وفقًا للاختبارات التي أجرتها Insider في وقت سابق من هذا العام.


من جانبه، قال جوبتا إنه إذا كانت هناك حالات من التحيز غير المكتشف في أنظمة الذكاء الاصطناعي التي تُستخدم لاتخاذ قرارات واقعية، مثل الموافقة على مزايا الرعاية الاجتماعية، فقد يكون لذلك عواقب وخيمة.


 


 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى