كشف تقرير نشرته مجلة “ذا إيكونوميست” عن مخاطر محدقة بالبشرية جراء التطور المتسارع للذكاء الاصطناعي، مؤكداً أن تمكين الإرهابيين البيولوجيين بات يمثل خطراً يفوق في جسامته تهديدات القرصنة الإلكترونية التقليدية، وذلك بالتزامن مع بلوغ النماذج الذكية مستويات “فوق بشرية” في فهم وتفكيك البيانات الحيوية.
أظهر نموذج “Mythos” الذي طورته شركة “Anthropic” قدرات استثنائية أثارت قلق الأوساط العلمية، حيث نجح في حل مهام بيولوجية معقدة عجز عنها كبار الخبراء البشر، ومن بينها الهندسة العكسية لأنواع الخلايا من بيانات الحمض النووي الخام، مما يفتح الباب أمام احتمالات خطيرة لتخليق فيروسات وسموم عصبية مبتكرة.
أوضح المحللون أن الفجوة الأمنية في المجال البيولوجي تكمن في انعدام “فرص التعلم من الخطأ”؛ فبينما يمكن إصلاح الثغرات البرمجية في الأنظمة السيبرانية بسرعة، تظل البيولوجيا البشرية هشة وغير قابلة للتعديل أمام الأوبئة المصنعة، مما يجعل أي هجوم بيولوجي كارثة نهائية لا يمكن احتواؤها أو التراجع عن آثارها.
انتقد التقرير بشدة تدابير السلامة الحالية التي تتبعها شركات التقنية، مشيراً إلى أن محاولات “حظر الإجابات الخطرة” أثبتت فشلها أمام تقنيات “كسر الحماية” التي مكنت الهواة من استخراج معلومات حساسة عن الفيروسات، كما أكد أن النماذج الذكية قادرة على “استنتاج” المعرفة المحذوفة من المبادئ العلمية الأولى، مما يجعل تصفية البيانات عملية غير مجدية.
حثت المجلة الحكومات والأجهزة الأمنية على ضرورة فرض رقابة صارمة على موردي تكنولوجيا تخليق الحمض النووي، وتفعيل بروتوكولات “اعرف عميلك” لحصر هذه الخدمات في الباحثين المعتمدين، محذرة من أن سهولة الوصول إلى الأدوات المعملية تجعل من الصعب مراقبة كافة الأنشطة البيولوجية في العالم.
اختتم الخبراء التقرير بالدعوة إلى ثورة في “علوم سلامة الذكاء الاصطناعي”، مقترحين إجراء ما يشبه “الجراحة العصبية” للنماذج الذكية لتعطيل مراكز المعرفة الخطرة فيها، مع التأكيد على ضرورة تقييد الوصول إلى الأنظمة “مفتوحة المصدر” التي قد تمنح الأفراد القدرة على تهديد بقاء الجنس البشري.


