تزعم شكوى مقدمة من مبلغ عن المخالفات إلى لجنة الأوراق المالية والبورصات أن جوجل انتهكت سياساتها الأخلاقية الخاصة التي تحظر استخدام الذكاء الاصطناعي في الأسلحة، وذلك بمساعدة مقاول عسكري إسرائيلي في تحليل فيديو الطائرات المسيرة.
- تفاصيل الشكوى والمزاعم
- حادثة الدعم الفني ونموذج جيمناي
- خرق المبادئ الأخلاقية المعلنة
- رد جوجل الرسمي
- سياق المشروع والاحتجاجات
- أسئلة شائعة
تفاصيل الشكوى والمزاعم
وفقاً للشكوى التي اطلعت عليها “واشنطن بوست”، تم استخدام تقنية “جيمناي” من جوجل بواسطة الجهاز الدفاعي الإسرائيلي في وقت كانت الشركة تنأى بنفسها علناً عن العمليات العسكرية. يزعم المبلغ أن هذا التصرف يضلل المستثمرين لأنه يخالف السياسات المعلنة للشركة.
حادثة الدعم الفني ونموذج جيمناي
في يوليو 2024، تلقى قسم السحابة في جوجل طلباً من شخص يستخدم بريداً إلكتروني تابعاً للجيش الإسرائيلي. طلب المستخدم المساعدة في جعل نموذج “جيمناي” أكثر دقة في تحديد الأجسام مثل الطائرات المسيرة والجنود في الفيديو. واستجاب موظفو جوجل بتقديم اقتراحات فنية، مما يشير إلى انخراط مباشر في تحسين القدرات العسكرية للنموذج.
خرق المبادئ الأخلاقية المعلنة
تحظر مبادئ جوجل استخدام الذكاء الاصطناعي في الأسلحة أو المراقبة التي تنتهك الأعراف الدولية. يقول المبلغ إن الشركة تطبق معايير مزدوجة، وتتجاهل قواعدها عندما يتعلق الأمر بإسرائيل، مما دفعه لتقديم الشكوى للمساءلة.
رد جوجل الرسمي
نفت جوجل الاتهامات، قائلة إن المساعدة كانت عبارة عن رد روتيني على تذكرة دعم، وأن استخدام الحساب للذكاء الاصطناعي كان ضئيلاً جداً وغير “ذي مغزى”. وأكدت أن أعمالها لا تنتهك مبادئها.
سياق المشروع والاحتجاجات
يأتي هذا في ظل الجدل حول مشروع “نيمبوس” للحوسبة السحابية مع إسرائيل، الذي أثار احتجاجات داخلية وفصل موظفين. تسلط الشكوى الضوء على التوتر بين المصالح التجارية للشركات التقنية والالتزامات الأخلاقية في مناطق النزاع.
أسئلة شائعة
السؤال: ما هو الاتهام الموجه لجوجل؟
الإجابة: مساعدة مقاول عسكري في استخدام الذكاء الاصطناعي لأغراض عسكرية تخالف سياسات الشركة.
السؤال: كيف ردت جوجل؟
الإجابة: قالت إن الاستخدام كان ضئيلاً وغير مؤثر، وأن الدعم المقدم كان روتينياً.
السؤال: ما هي العواقب المحتملة؟
الإجابة: قد تؤدي الشكوى لتحقيقات من قبل هيئة الأوراق المالية حول تضليل المستثمرين إذا ثبتت صحتها.