أكثر من 600 من موظفي “غوغل” طالبوا الشركة برفض اتفاق محتمل مع البنتاغون يسمح باستخدام تقنيات الذكاء الاصطناعي التابعة لها في عمليات عسكرية سرية.
وجاء في الرسالة المفتوحة (المصدر باللغة الإنجليزية) الموجهة إلى الرئيس التنفيذي لـ”غوغل” سوندار بيتشاي: “نريد أن نرى الذكاء الاصطناعي يفيد البشرية، لا أن يُستخدم بطرق غير إنسانية أو شديدة الضرر. يشمل ذلك الأسلحة الفتاكة ذاتية التشغيل والمراقبة الجماعية، ويتعداهما إلى ما هو أبعد من ذلك”.
وقد وقع الرسالة موظفون من وحدات “غوغل ديب مايند” و”غوغل كلاود” وأقسام أخرى، في وقت تجري فيه الشركة العملاقة للتكنولوجيا مفاوضات مع وزارة الدفاع الأميركية حول احتمال استخدام نموذج الذكاء الاصطناعي “Gemini” في بيئات مصنفة سرية.
ووقّع عليها علنا أكثر من 20 مديرا ومديرا رفيع المستوى ونائبا للرئيس.
وقال أحد الموظفين المنظمين، لم يُذكر اسمه في البيان: “إن الأعمال المصنفة سرية تكون بحكم تعريفها معتمة ولا تخضع للشفافية”.
وأضاف: “في الوقت الراهن، لا توجد وسيلة تضمن ألا تُستغل أدواتنا في التسبب بأضرار مروعة أو في تقويض الحريات المدنية بعيدا عن الرقابة العامة. نحن نتحدث عن أمور مثل تصنيف الأفراد واستهداف المدنيين الأبرياء”.
وتأتي هذه الرسالة في وقت تواجه فيه شركات التكنولوجيا ضغوطا متزايدة لتوضيح كيفية استخدام أدوات الذكاء الاصطناعي التي تطورها من قبل الجيش وأجهزة الاستخبارات، وذلك بعد نزاع بين البنتاغون والشركة الناشئة في مجال الذكاء الاصطناعي “Anthropic”.
وكانت شركة “Anthropic” قد رفعت في وقت سابق دعوى قضائية ضد وزارة الدفاع الأميركية بعد تصنيفها “مخاطر على سلسلة الإمداد”، إثر طلبها ألا تُستخدم أنظمتها في المراقبة الجماعية أو في خوض حروب ذاتية التشغيل.
وقال الرئيس التنفيذي لـ”Anthropic” داريو أمودي إنه “لا يستطيع، بحكم ضميره، أن يرضخ لطلب البنتاغون” بالحصول على حق وصول غير مقيّد إلى أنظمة الذكاء الاصطناعي الخاصة بالشركة.
وكتب أمودي: “في مجموعة ضيقة من الحالات، نعتقد أن الذكاء الاصطناعي يمكن أن يقوّض القيم الديمقراطية بدل أن يحميها. كما أن بعض الاستخدامات تخرج ببساطة عن نطاق ما تستطيع التكنولوجيا الحالية القيام به بأمان وموثوقية”.
وردا على قرار أمودي، أمر الرئيس الأميركي دونالد ترامب الدوائر الحكومية بالتوقف عن استخدام روبوت الدردشة “Claude” الذي تطوره الشركة.
وبحسب منظمي الرسالة، اقترحت “غوغل” صياغة تعاقدية تمنع استخدام “Gemini” في المراقبة الجماعية داخل الولايات المتحدة أو في الأسلحة الذاتية التشغيل من دون وجود مستوى مناسب من التحكم البشري.
لكن البنتاغون ضغط لاعتماد صياغة أوسع تتيح “كل الاستخدامات القانونية”، بحجة أن ذلك ضروري للحفاظ على المرونة العملياتية. ويقول الموظفون إن تطبيق مثل هذه الضمانات على أرض الواقع سيكون صعبا، مشيرين إلى سياسات قائمة لدى البنتاغون تحدّ من إمكانية الرقابة الخارجية على أنظمة الذكاء الاصطناعي التابعة له.
ويذكّر بيان موظفي “غوغل” الأخير باحتجاج سابق داخل الشركة في عام 2018 أدى إلى انسحابها من مشروع “Maven”، وهو مبادرة للبنتاغون كانت تستخدم الذكاء الاصطناعي لتحليل صور ومقاطع الفيديو التي تلتقطها الطائرات المسيرة.
وجاء في تلك الرسالة آنذاك: “نعتقد أن غوغل لا ينبغي أن تكون في مجال صناعة الحرب”.
وأضافت: “لذلك نطالب بإلغاء مشروع “Maven”، وأن تقوم غوغل بصياغة سياسة واضحة ونشرها وتطبيقها، تنص على أن الشركة ولا المتعاقدين معها سيطوّرون في أي وقت من الأوقات تكنولوجيا مخصصة للحروب”.
فيما يلي نص رسالة موظفي جوجل:
رسالة مفتوحة إلى ســندار بيتشاي
من موظفين في شركة غوغل
عزيزي ســندار،
نحن موظفون في «غوغل» يساورنا قلق بالغ إزاء المفاوضات الجارية بين الشركة ووزارة الدفاع الأمريكية. وبوصفنا أشخاصاً نعمل في مجال الذكاء الاصطناعي، ندرك أن هذه الأنظمة قادرة على تركيز السلطة في أيدٍ بعينها، وأنها لا تخلو من الأخطاء. ونرى أن قُربنا من هذه التكنولوجيا يُحمّلنا مسؤولية الكشف عن أكثر استخداماتها لاأخلاقيةً وخطورةً، والحيلولة دون وقوعها.
ولذلك، نناشدك أن ترفض إتاحة أنظمتنا للذكاء الاصطناعي لأي أعباء عمل سرّية.
نريد للذكاء الاصطناعي أن يخدم البشرية، لا أن نراه يُوظَّف في أغراض لاإنسانية أو بالغة الضرر؛ بما في ذلك الأسلحة الفتّاكة ذاتية التشغيل والمراقبة الجماعية، وما يتجاوز ذلك. والسبيل الوحيد اليوم لضمان ألا يقترن اسم «غوغل» بمثل هذه الأضرار هو رفض أي أعباء عمل سرّية رفضاً قاطعاً؛ وإلا فقد تُستخدم تقنياتنا في ذلك دون علمنا، ودون أن نملك القدرة على وقفها.
إن اتخاذ القرار الخاطئ في هذه اللحظة سيُلحق بسمعة «غوغل» وأعمالها ومكانتها في العالم ضرراً يتعذّر إصلاحه. فنحن في هذه اللحظة بالذات نشهد تهديداً فعلياً لسلامة موظفينا وبنيتنا التحتية الحيوية، فيما تُزهَق أرواح بشرية وتُنتهك حريات مدنية، في الداخل والخارج، جرّاء سوء استخدام التكنولوجيا التي نضطلع بدور رئيسي في بنائها.
نعلم من تاريخنا أن قادتنا قادرون على اتخاذ القرارات الصائبة، لأنفسنا وللعالم، حين تكون المخاطر جسيمة.
واليوم، نناشدك يا ســندار أن تتصرّف وفقاً للقيم التي قامت عليها هذه الشركة، وأن ترفض أعباء العمل السرّية.
— موظفو غوغل
