تطوير أسلحة إرهابية.. كارثة قد يحملها الذكاء الاصطناعي
المصدر : العربية تاريخ النشر : 01-11-2023
تتطور تقنية الذكاء الاصطناعي بسرعة هائلة، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة. لكن بعض الخبراء يخشون من إمكانية استخدام هذه التقنية لأغراض ضارة.

فقد كشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.

كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على "تعزيز القدرات الإرهابية" في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.

كذلك شملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، "التضليل الجماعي" و"أزمة البطالة" حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.

"تهديد وجودي"
وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستناداً إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا "خطر ذو احتمالية منخفضة للغاية".

مع ذلك، أضافت: "بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديداً وجودياً".

ولفتت إلى أن الذكاء الاصطناعي يمكنه بالفعل أداء "العديد من المهام المفيدة اقتصادياً" مثل تلخيص المستندات الطويلة وتحليل البيانات.

"ذكاء فائق" اصطناعي
كما أشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر، لكنها لمحت إلى أنها لا تستطيع التنبؤ "بالقدرات الجديدة المحددة" التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيراً.

وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير "ذكاء فائق" اصطناعي قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يشكل خطراً "كارثياً".

كذلك حذرت من أن الذكاء الاصطناعي قد "يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير" في حالة إساءة استخدامه - من خلال شن هجمات إلكترونية بشكل مستقل.

   

اخر الاخبار