في ظل التطور السريع لتقنيات الذكاء الاصطناعي، أطلق عدد من كبار العلماء، بينهم حائزون على جوائز نوبل، تحذيراً صادماً من أن استمرار المسار الحالي لتطوير الذكاء الاصطناعي قد يؤدي إلى انقراض البشرية خلال عام واحد فقط، بحسب ما نقلته صحيفة التايمز البريطانية.
وكان أواخر يوليو قد شهد احتجاجاً رمزياً أمام مقر شركة OpenAI في سان فرانسيسكو، حيث رفع نحو 25 ناشطاً لافتات كتب عليها "أوقفوا الذكاء الاصطناعي"، في إشارة إلى تصاعد المخاوف من التأثيرات الكارثية المحتملة لهذه التكنولوجيا.
ويشارك هذا القلق نخبة من رواد الذكاء الاصطناعي حول العالم، بينهم جيفري هينتون، الحائز على جائزة نوبل في الفيزياء، ويوشوا بنجيو الحاصل على جائزة تورينغ، إضافة إلى مسؤولين في شركات كبرى مثل OpenAI وAnthropic وDeepMind وGoogle. وقد وقع هؤلاء على رسالة مفتوحة تطالب بجعل مخاطر الذكاء الاصطناعي أولوية عالمية، إلى جانب الأوبئة والحروب النووية.
ويحذر الخبراء من سيناريوهات مرعبة، مثل استخدام الأنظمة الذكية في تطوير أسلحة بيولوجية خفية قد تنتشر في المدن الكبرى وتتسبب في إبادة بشرية صامتة.
وفي هذا السياق، صرّح نيت سوريس، رئيس معهد أبحاث الذكاء الآلي، أن احتمال انقراض البشرية جراء الذكاء الاصطناعي لا يقل عن 95%، واصفاً الوضع بأنه "كمن يقود سيارة بسرعة 100 ميل في الساعة نحو منحدر حاد".
ويرى الخبراء أن الذكاء الاصطناعي ما زال في مرحلته "الضيقة"، لكنه يقترب بسرعة من الوصول إلى الذكاء الاصطناعي العام، الذي قد يضاهي أو يتفوق على الذكاء البشري، وهو ما يطرح تحديات خطيرة تتعلق بكيفية السيطرة عليه، في ظل تحذيرات من أنه قد يطور قدرات على الكذب والتحايل.
من جهتها، اعتبرت هولي إلمور، المديرة التنفيذية لمنظمة PauseAI، أن احتمال الانقراض لا يتجاوز 20%، لكنها حذرت من فقدان البشر للسلطة تدريجياً، ما سيجعلهم "يعيشون في مكبات نفايات دون فهم لما يجري حولهم".
ودعت إلمور إلى وقف مؤقت لتطوير الذكاء الاصطناعي، ووضع معاهدات دولية ملزمة لتنظيمه، في ظل تسارع سياسي وتجاري لتخفيف القيود، كما يظهر من خطط إدارة ترمب الأخيرة وتنافس شركات التكنولوجيا على استقطاب الخبراء.
وبينما يرى البعض أن الذكاء الاصطناعي قد يكون بوابة نحو الخلود، يؤكد آخرون أن الجحيم قد يكون أقرب مما نتصور، ما يجعل إيقاف هذا السباق ضرورة لا تحتمل التأجيل.