“لافندر” و”الإنجيل”.. الروبوتات القاتلة!

لقد هيمنت سيناريوهات يوم القيامة وتوقعات الخيال العلمي حول أنظمة الذكاء الاصطناعي المتقدمة على الخطاب العام الأخير حول الذكاء الاصطناعي. ونتيجة لذلك، عندما يتحدث الناس عن حرب الذكاء الاصطناعي، فإنهم يميلون إلى التفكير في “الروبوتات القاتلة” الآلية بالكامل.

ومع ذلك، فإن ما كشفته حرب إسرائيل على غزة هو أن أنظمة مراقبة الذكاء الاصطناعي الأكثر بساطة وأقل تطوراً تُستخدم بالفعل لإطلاق العنان لأهوال ديستوبية، مدفوعة بالتكنولوجيا.

تم اختيار الأسماء والرموز اليهودية في العهد القديم بشكل كبير لأغراض إسرائيل العسكرية، وفي حين أن الحجم المذهل للدمار وعدم التناسب الذي يمارسه الجيش الإسرائيلي في غزة أمر صادم، وقد تمت إدانته على نطاق واسع على المستوى الدولي، إلا أن أحد الجوانب لم تتم مناقشته إلا قليلاً، وهو على وجه التحديد سياسة تسمية أنظمة الأسلحة الإسرائيلية عالية التقنية وتسميات عملياتها العسكرية.

ماذا وراء أسماء مثل “لافندر”و”الإنجيل”؟ وتسميات اسرائيلية أخرى تستخدم مصطلحات حميدة ودينية، تهدف إلى إخفاء الطبيعة الحقيقية لأسلحة الذكاء الاصطناعي وتأثيرها وإخفاء عواقبها الشريرة.

كشفت التحقيقات الإعلامية الأخيرة، بأن أنظمة الاستهداف الإسرائيلية للذكاء الاصطناعي يحمل اسم “لافندر” Iavender، وهو اسم ورمز يهودي في العهد القديم له جذور كتابية كأحد الجذور الكتابية ومذكور فى نشيد الإنشاد، و”الإنجيل” يغرس إحساسًا بالعدالة أو الثقة فى المشغلين الذين كان الكثير منهم يعلمون أنهم سيقتلون مدنيين أثناء محاولتهم استهداف نشطاء حماس، وأحيانًا أكثر من مائة منهم في ضربة واحدة، تعمل هذه الأسلحة السيبرانية على أتمتة “الأتمتة هي فن جعل الإجراءات والآلات تسير وتعمل بشكل تلقائي” المذابح الجماعية والدمار في جميع أنحاء قطاع غزة. هذا هو تجسيد للعديد من اتجاهات انتهاك حقوق الإنسان من قبل الذكاء الاصطناعي، مثل أنظمة المراقبة البيومترية وأدوات الشرطة التنبؤية، التي حُذّرَ منها سابقاً. تُظهِر الحرب المعززة بالذكاء الاصطناعي في غزة الحاجة الملحة للحكومات لحظر استخدام التقنيات التي لا تتوافق مع حقوق الإنسان – في أوقات السلم وكذلك الحرب.

إن استخدام إسرائيل للذكاء الاصطناعي في الحرب ليس بالأمر الجديد. فلعقود من الزمان، استخدمت إسرائيل قطاع غزة كحقل اختبار لتقنيات وأسلحة جديدة، والتي تبيعها لاحقًا لدول أخرى. حتى إن قوات الدفاع الإسرائيلية وصفت قصفها العسكري الذي استمر 11 يومًا لغزة في مايو 2021 بأنه “أول حرب ذكاء اصطناعي”.

وفي الهجوم الحالي على غزة، رأينا إسرائيل تستخدم ثلاث فئات عريضة من أدوات الذكاء الاصطناعي: أنظمة الأسلحة الفتاكة المستقلة (LAWS) والأسلحة شبه المستقلة (Semi-LAWS): كان الجيش الإسرائيلي رائدًا في استخدام الطائرات الرباعية المروحية التي يتم التحكم فيها عن بعد والمجهزة بمدافع رشاشة وصواريخ لمراقبة وإرهاب وقتل المدنيين الذين يحتمون في الخيام والمدارس والمستشفيات والمناطق السكنية. أفاد سكان مخيم النصيرات للاجئين في غزة أن بعض الطائرات بدون طيار تبث أصوات بكاء الأطفال والنساء، من أجل إغراء الفلسطينيين واستهدافهم. لسنوات، نشرت إسرائيل “طائرات بدون طيار انتحارية”، و”قناصة روبوتيين” آليين وأبراج تعمل بالذكاء الاصطناعي لإنشاء “مناطق قتل آلية” على طول حدود غزة، بينما في عام 2021، نشرت أيضًا روبوتًا عسكريًا شبه مستقل يُدعى “جاكوار”، تم الترويج له باعتباره “أحد الروبوتات العسكرية الأولى في العالم التي يمكن أن تحل محل الجنود على الحدود”. وأنظمة التعرف على الوجه والمراقبة البيومترية “عملية تستخدم خصائص مادية فريدة لتحديد الأفراد”. كان غزو إسرائيل البري لغزة فرصة لتوسيع نطاق مراقبتها البيومترية للفلسطينيين، والتي تم نشرها بالفعل في الضفة الغربية والقدس الشرقية.

وقد ذكرت صحيفة نيويورك تايمز كيف يستخدم الجيش الإسرائيلي نظام التعرف الموسع على الوجوه في غزة “لإجراء مراقبة جماعية هناك، وجمع وفهرسة وجوه الفلسطينيين دون علمهم أو موافقتهم”.

ووفقًا للتقرير، يستخدم هذا النظام تكنولوجيا من شركة كورسايت الإسرائيلية وجوجل فوتوز Goggle Photos لاختيار الوجوه من الحشود وحتى من لقطات الطائرات بدون طيار. وكذا أنظمة توليد الأهداف الآلية: وأبرزها نظام الإنجيل، الذي يولد أهدافًا للبنية التحتية، ونظام لافندر، الذي يولد أهدافًا بشرية فردية، ونظام أين بابا؟، وهو نظام مصمم لتتبع واستهداف المسلحين المشتبه بهم عندما يكونون في المنزل مع عائلاتهم.

وقد أدانت الأمم المتحدة أنظمة الأسلحة الآلية، وإلى حد ما أنظمة الأسلحة الآلية شبه الآلية، باعتبارها “غير مقبولة سياسياً وبغيضة أخلاقياً”، وهناك دعوات متزايدة لحظرها. إن استخدام أنظمة توليد الأهداف بالذكاء الاصطناعي في الحرب، إلى جانب المراقبة الجماعية البيومترية، يستحق المزيد من الاهتمام، نظرًا لأنها توضح التأثير المدمر، بل وحتى الإبادي، في زمن الحرب للتكنولوجيات التي يجب حظرها بالفعل في زمن السلم.

في حين قد تبدو في البداية وكأنها حدود جديدة صادمة، فإن استخدام أنظمة الاستهداف مثل “الإنجيل” أو “لافندر” هو في الواقع مجرد قمة نظام ذكاء اصطناعي آخر مستخدم بالفعل في جميع أنحاء العالم: الشرطة التنبؤية.

وكما يستخدم الجيش الإسرائيلي “أنظمة تعتمد على البيانات” للتنبؤ بمن قد يكون عميلاً لحماس أو أي مبنى قد يكون معقلاً لحماس، تستخدم أجهزة إنفاذ القانون أنظمة الذكاء الاصطناعي للتنبؤ بالأطفال الذين قد يرتكبون جريمة أو يكونون جزءًا من عصابة، أو أين يتم نشر قوات شرطة إضافية. مثل هذه الأنظمة تمييزية بطبيعتها ومعيبة بشكل عميق، مع عواقب وخيمة على الأشخاص المعنيين.. في غزة، يمكن أن تكون هذه العواقب قاتلة.

وعندما يتعلق الأمر بأنظمة الاستهداف التي تتعطل، فإن أحد المخاوف الرئيسية هو أن هذه الأنظمة مبنية ومدربة على بيانات معيبة.

ووفقاً لتحقيقات مجلة +972 “مجلة لأربع كتاب إسرائيليين فى تل أبيب فإن بيانات التدريب التي تم إدخالها إلى النظام تضمنت معلومات عن موظفين غير مقاتلين في حكومة حماس في غزة، مما أدى إلى قيام لافندر عن طريق الخطأ بتحديد الأفراد الذين لديهم أنماط اتصال أو سلوك مماثلة لتلك التي لدى نشطاء حماس المعروفين كأهداف. وشمل ذلك رجال الشرطة والدفاع المدني وأقارب النشطاء وحتى الأفراد الذين لديهم نفس اسم عملاء حماس.

وكما ذكرت المجلة، فإن على الرغم من أن لافندر كان لديه معدل خطأ بنسبة 10٪ عند تحديد انتماء الفرد إلى حماس، فقد حصل جيش الدفاع الإسرائيلي على موافقة شاملة لتبني قوائم القتل الخاصة به تلقائيًا “كما لو كان قرارًا بشريًا”. وذكر الجنود أنهم لم يُطلب منهم التحقق بشكل شامل أو مستقل من دقة مخرجات لافندر أو مصادر بياناته الاستخباراتية؛ وكان الفحص الإلزامي الوحيد قبل السماح بالقصف هو التأكد من أن الهدف المحدد كان ذكرًا، وهو ما استغرق حوالي “20 ثانية”. ولكن لا توجد طريقة قوية لاختبار دقة مثل هذه الأنظمة، ولا للتحقق من أدائها. إن عملية التحقق من انتماء شخص ما إلى حماس معقدة للغاية، وخاصة بالنظر إلى الطبيعة المعيبة المحتملة للبيانات التي تستند إليها مثل هذه التنبؤات.

وقد ثبت مرارا وتكرارا أن أنظمة التعلم الآلي لا يمكنها التنبؤ بشكل موثوق بصفات بشرية معقدة، مثل “الإجرام المستقبلي المحتمل”، وذلك لأن البيانات غير كافية وتعتمد الأنظمة على وكلاء (على سبيل المثال البيانات حول الاعتقالات في مقابل البيانات حول الجرائم الفعلية المرتكبة)، ولكن أيضا لأنه ببساطة ليس من الصحيح أن “المزيد من البيانات يساوي تنبؤات أفضل”.

وبعيدا عن افتقار مثل هذه الأنظمة إلى الدقة أو التحقق البشري، فإن هناك قلقا وجوديا أكثر يتمثل في كيف أن استخدامها يتعارض بشكل أساسي مع حقوق الإنسان، والكرامة الإنسانية المتأصلة التي تنبع منها هذه الحقوق. ويتجلى هذا في حقيقة أن أنظمة الاستهداف التي تعمل بالذكاء الاصطناعي في إسرائيل تعمل على النحو المقصود؛ وكما قال جيش الدفاع الإسرائيلي، “نحن الآن نركز على ما يسبب أقصى قدر من الضرر”.

وبحسب التقارير، تعرض الجنود لضغوط لإنتاج المزيد من أهداف القصف كل يوم، كما زُعم أنهم استخدموا صواريخ غير موجهة، أو “قنابل غبية”، لاستهداف مسلحين صغار مزعومين تم تمييزهم بلافندر في منازلهم.

وقد أدى هذا إلى جانب استخدام إسرائيل للذكاء الاصطناعي لحساب الأضرار الجانبية، إلى القتل الجماعي للفلسطينيين ومستوى من الدمار لم نشهده منذ الحرب العالمية الثانية، وفقًا للأمم المتحدة. إن استخدام أنظمة الاستهداف بالذكاء الاصطناعي هذه يخفف فعليًا من المسؤولية البشرية عن قرارات الحياة والموت، في محاولة لإخفاء حملة غير متطورة تمامًا من الدمار الشامل والقتل وراء قشرة من الموضوعية الخوارزمية. لا توجد طريقة أخلاقية أو إنسانية لاستخدام أنظمة مثل لافندر أو أين أبي؟ لأنها تقوم على نزع الصفة الإنسانية الأساسية عن الناس. يجب حظرها – ونحن بحاجة إلى إلغاء البنية التحتية للمراقبة وقواعد البيانات البيومترية وغيرها “أدوات وقت السلم” التي تمكن من نشر مثل هذه الأنظمة في مناطق الحرب. إن البنية التحتية للمراقبة التي تم تطويرها ونشرها خلال وقت السلم يمكن إعادة استخدامها بسهولة أثناء الحرب لتمكين أسوأ انتهاكات حقوق الإنسان.

وهذا يثير تساؤلات حول دور شركات التكنولوجيا الكبرى في توفير التقنيات المدنية التي يمكن استخدامها لأغراض عسكرية – وأبرزها خدمات الحوسبة السحابية والتعلم الآلي التي تقدمها Google وAmazon Web Services لإسرائيل من خلال مشروع Nimbus. بالإضافة إلى ذلك، اقترح البعض أن البيانات الوصفية من WhatsApp، المملوكة لشركة Meta، تُستخدم لتوفير البيانات لنظام الاستهداف Lavender. من خلال الفشل في معالجة مسؤولياتها في مجال حقوق الإنسان، والاستمرار في تقديم هذه الخدمات لحكومة إسرائيل، تخاطر شركات مثل Google وAWS وMeta بالتواطؤ في مساعدة أو تحريض الجيش الإسرائيلي وجهاز الاستخبارات وجرائمه الفظيعة المزعومة في غزة. لا يمكن السماح للدول بتطوير البنية التحتية للمراقبة الجماعية التي يمكن استخدامها لإنتاج أهداف بكميات كبيرة، وتحديد عدد “معقول” من الضحايا المدنيين، والتخلي في النهاية عن المسؤولية البشرية عن قرارات الحياة والموت.

وعقلاء العالم يكررون دعوتهم لجميع الحكومات إلى حظر استخدامات الذكاء الاصطناعي التي تتعارض مع حقوق الإنسان، بما في ذلك الشرطة التنبؤية، والمراقبة الجماعية البيومترية، وأنظمة توليد الأهداف مثل لافندر. إن الأنظمة التي تستخدمها إسرائيل في غزة، إلى جانب مختبر المراقبة الجماعية الذي أنشأته الحكومة منذ فترة طويلة ويتوسع باستمرار، تقدم لمحة عن مستقبل أكثر قتامة لا يمكن ولا ينبغي السماح له بأن يتحقق على الإطلاق، في وقت تستعد فيه بلدان لنشر أنظمة الأسلحة الفتاكة المستقلة على نطاق واسع، ويتم معه دمج الذكاء الاصطناعي في عمليات الطائرات بدون طيار ودعم عملية اتخاذ القرار البشري في الصراعات في جميع أنحاء العالم.

من غزة إلى أوكرانيا، تعمل التطبيقات العسكرية للذكاء الاصطناعي على إعادة تشكيل ديناميكيات وأخلاقيات الحرب بشكل أساسي. فما آثار استخدام الذكاء الاصطناعي في ساحة المعركة؟ وكيف ينبغي لصناع السياسات أن يتعاملوا مع المقايضات المتأصلة في الذكاء الاصطناعي، وما الضمانات القانونية والأخلاقية اللازمة لحماية المدنيين من الأذى؟!

أسئلة كثيرة سأحول أن أجد إجابة لها.

مودي حكيم – بوابة روز اليوسف

كانت هذه تفاصيل خبر “لافندر” و”الإنجيل”.. الروبوتات القاتلة! لهذا اليوم نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكاملة ولمتابعة جميع أخبارنا يمكنك الإشتراك في نظام التنبيهات او في احد أنظمتنا المختلفة لتزويدك بكل ما هو جديد.

كما تَجْدَرُ الأشاراة بأن الخبر الأصلي قد تم نشرة ومتواجد على كوش نيوز وقد قام فريق التحرير في الخليج 365 بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر من مصدره الاساسي.

أخبار متعلقة :