السبت 23 تشرين الثاني 2024

الذكاء الاصطناعي قد يؤدي إلى انقراض البشرية! خبراء يدعون لتصنيفه ضمن فئة الأوبئة والحروب النووية


النهار الاخبارية - وكالات 

أصدر خبراء تكنولوجيا بارزون من شتى أنحاء العالم بياناً حذروا فيه من مخاطر التكنولوجيا الذكاء الاصطناعي، وقالوا إن هذه التكنولوجيا يجب أن تُعامل معاملة المخاطر الوجودية، وأن تُقدَّم في الأهمية لتصبح من فئة قضايا الأوبئة والحروب النووية، حسب ما نشرته صحيفة The Guardian البريطانية.

وصدر البيان، الذي وقعه مئات من المديرين التنفيذيين والأكاديميين، عن "مركز أمان الذكاء الاصطناعي" (CAIS) يوم الثلاثاء 30 مايو/أيار، وسط مخاوف متزايدة بشأن ضعف القيود التنظيمية المفروضة على استخدام الذكاء الاصطناعي، والمخاطر التي تشكلها هذه التكنولوجيا على البشرية. 

مخاطر الانقراض! 
وجاء في البيان أن "احتواء مخاطر الانقراض المحتمل نشوؤها عن الذكاء الاصطناعي يجب أن تكون قضية ذات اهتمام عالمي، وأن تُدرج إلى جانب المخاطر الكبرى على الاجتماع البشري، مثل الأوبئة والحرب النووية". 

وقد شملت قائمة الموقعين على البيان: الرؤساء التنفيذيين لشركة "ديب مايند" DeepMind البريطانية التابعة لشركة جوجل؛ وشركة "أوبن إيه آي" OpenAI الأمريكية المبتكِرة لتطبيق ChatGPT؛ وشركة "أنثروبك" Anthropic الأمريكية الناشئة التي تعمل في مجال الذكاء الاصطناعي. 

يأتي ذلك فيما حثَّ زعماء عالميون وخبراء في تكنولوجيا الذكاء الاصطناعي -مثل رؤساء شركة "أوبن إيه آي"- على فرض قيود تنظيمية لاستخدام هذه التقنيات بسبب المخاوف الوجودية من تداعيات كبيرة لها على أسواق العمل وفقدان آلاف الناس لوظائفهم، وإضرار بصحة ملايين البشر، وتحويل المعلومات المضللة والتمييز وانتحال الهوية إلى أسلحة يسيرة الاستخدام.

استقالة الأب الروحي للذكاء الاصطناعي  
شهد هذا الشهر استقالة جيفري هينتون -الرجل الذي كثيراً ما كان يوصف بأنه الأب الروحي لعالَم الذكاء الاصطناعي، وأحد الموقعين على البيان- من شركة جوجل محذراً من "المخاطر الوجودية" لتقنيات الذكاء الاصطناعي.

في غضون ذلك، أقرت الحكومة البريطانية بهذه المخاوف لأول مرة الأسبوع الماضي، وهو تحول سريع في مسار الحكومة جاء بعد شهرين من نشر تقرير آخر تضمن تحذيرات من خبراء في مجال الذكاء الاصطناعي. 

وقال مايكل أوزبورن، الأستاذ في قسم التعلم الآلي بجامعة أكسفورد البريطانية، إنه على الرغم من أن البيان الذي نُشر يوم الثلاثاء 30 مايو/أيار ليس أول بيان من نوعه، فمن المحتمل أن يكون الأكثر تأثيراً بالنظر إلى العدد الكبير من الخبراء الموقعين عليه، وما انطوى عليه البيان من مخاوف وجودية. 

ورأى أوزبورن أنه "أمر عظيم أن كل هؤلاء الخبراء قد وقعوا على البيان"؛ إذ "يدل ذلك على أن هناك إدراكاً متزايداً بين العاملين بتقنيات الذكاء الاصطناعي بأن المخاطر الوجودية الناجمة عنها مبعث حقيقي على القلق".

 فيما وأوضح أوزبورن أنه قد وقع على البيان لما يراه في الذكاء الاصطناعي من قدرة على زيادة المخاطر الوجودية الحالية؛ مثل الأوبئة المهندسة وسباق التسلح العسكري، فضلاً عن التهديدات الوجودية المستحدثة للذكاء الاصطناعي. 

توالت هذه الدعوات للحدِّ من مخاطر الذكاء الاصطناعي في أعقاب النجاح الذي بلغه تطبيق ChatGPT، بعد إصداره في نوفمبر/تشرين الثاني. فقد توسع ملايين الناس في الاعتماد على التطبيق، وتجاوز انتشاره توقعات الخبراء في مجال الذكاء الاصطناعي، وقال أوزبورن: "بالنظر إلى أننا لا ندرك الذكاء الاصطناعي تمام الإدراك بعد، فهناك مخاوف جديرة بالالتفات إليها من أنه قد يصبح نوعاً من الكائنات المنافسة لنا على هذا الكوكب، أي فصيلة ذات تأثير مدمر على بقاء البشر"