الذكاء الاصطناعي في خدمة الإبادة: كيف حوّل الاحتلال غزة لمختبر للقتل الجماعي

منذ اندلاع حرب الإبادة الجماعية الإسرائيلية على غزة في السابع من أكتوبر/تشرين الأول 2023، اتخذت العمليات العسكرية طابعًا غير مسبوق في مستوى التدمير والاستهداف المباشر للمدنيين. وبينما شكّل الدعم الغربي، لاسيما الأميركي، ركيزة أساسية لهذا التصعيد، فإن السلاح الحاسم في هذه الحرب كان من طبيعة مختلفة: الذكاء الاصطناعي.
فقد استغلت إسرائيل هذه الحرب لتطبيق واختبار تقنيات عسكرية متقدمة، حولت قطاع غزة إلى ساحة تجريب ميداني لتكنولوجيا القتل الرقمي. وباسم “الفعالية العسكرية”، تم تطوير برامج ذكاء اصطناعي لتحديد الأهداف، وتنفيذ الضربات، وإدارة بنك أهداف يتجدد يوميًا بوتيرة لا تتناسب مع أي معيار أخلاقي أو قانوني.
لكن الأدهى أن هذه البرمجيات صُممت لتتجاوز حدود “العدو المسلح”، فاستهدفت المدنيين على نطاق واسع.
“لافندر”: آلة تصفية جماعية
واحد من أبرز هذه الأنظمة هو برنامج “لافندر”، وهو خوارزمية ذكاء اصطناعي طورتها إسرائيل لتحديد من تعتبرهم “أهدافًا بشرية”. يقوم البرنامج بتحليل كم هائل من البيانات الشخصية لسكان غزة، تشمل الهوية، ومكان الإقامة، وسجلات التواصل الاجتماعي، وأرقام الهواتف، وحتى المجموعات التي ينضمون إليها على تطبيقات مثل واتساب.
بناء على هذه البيانات، يمنح البرنامج كل شخص تقييمًا رقميًا من 1 إلى 100، يشير إلى “احتمالية انتمائه إلى حركات مقاومة كحماس أو الجهاد الإسلامي”. ومن دون مراجعة بشرية تُذكر، يُعتمد هذا التقييم لتصفية الشخص المستهدف، حتى إن لم يكن مقاتلًا فعليًا.
ووفقًا لتحقيقات منشورة في مجلتي 972+ وLocal Call، استندت إسرائيل خلال الأسابيع الأولى من الحرب إلى هذا البرنامج بشكل شبه كلي، وحددت عبره نحو 37 ألف فلسطيني كأهداف محتملة للتصفية. وُصنّف مقتل 15 إلى 20 مدنيًا أثناء استهداف أحد هؤلاء الأفراد على أنه “مقبول”، في حين رُفعت هذه النسبة إلى مئة مدني إذا كان الهدف شخصية قيادية.
“الإنجيل”: تدمير بلا حساب
إلى جانب “لافندر”، تستخدم إسرائيل برنامجًا آخر تحت اسم “حبسورا” أو “الإنجيل”، وهو مخصص لاختيار الأبنية التي يجب تدميرها. يعمل البرنامج على تسريع اختيار الأهداف، بما يضمن رفع وتيرة القصف وتحقيق أكبر قدر من الدمار في أقصر وقت.
ويؤكد ضباط سابقون في الاستخبارات الإسرائيلية أن حبسورا يركز على الكمية لا النوع، ويعمل كمصنع للضربات الجوية دون النظر في تداعياتها على المدنيين.
وبحسب مراقبين فإن هذا ما يفسر حجم الدمار الذي تعرضت له أحياء سكنية كاملة، وقصف منازل مأهولة ليلاً بأطنان من المتفجرات، مخلفًا مئات الشهداء في بعض الحالات.
أنظمة رقابة شاملة
لم تتوقف التكنولوجيا العسكرية الإسرائيلية عند اختيار الأهداف وقصفها، بل شملت أنظمة رقابة شاملة مثل “بلو وولف” (الذئب الأزرق)، الذي يحتفظ بملفات رقمية دقيقة عن كل فلسطيني. تتضمن هذه الملفات صورًا، وأرقام هوية، وعناوين سكن، وأرقام سيارات وهواتف، وحتى تغييرات الإقامة أو استخدام وسائل التواصل.
الغرض من هذا النظام لا يقتصر على المراقبة، بل يُستخدم كأساس لخوارزميات القتل مثل “لافندر”، في حلقة متكاملة من التصفية الرقمية والميدانية، تجسّد منطق “القتل بالبيانات”.
مذبحة رقمية بمباركة دولية
يعكس استخدام الذكاء الاصطناعي بهذه الطريقة انزلاقًا خطيرًا في طبيعة الحروب المعاصرة. ففي غزة، لم يكن الأمر مجرد صراع مسلح، بل جرى تحويل قطاع يسكنه أكثر من مليوني إنسان إلى ميدان تجربة لتقنيات قتل جماعي، جرى فيها تقنين الضربات الموجهة ضد المدنيين بموجب معادلات حسابية بلا روح.
ورغم وضوح النية المبيتة في توظيف هذه الأنظمة لإبادة السكان، فإن المجتمع الدولي يغضّ الطرف. فبرامج القتل لم تأتِ فجأة، بل سبقها تطوير مكثّف ومراقبة رقمية ممنهجة، ما يدل على أن الحرب لم تكن مجرد رد فعل، بل خطوة متقدمة في مشروع اقتلاع الفلسطينيين من أرضهم.
مستقبل النزاعات في ظل الذكاء الاصطناعي
الأسئلة الأخلاقية التي تثيرها هذه الأدوات تتجاوز فلسطين. فإذا كان بالإمكان تبرير قتل مئات المدنيين بضغطة زر خوارزمية، فما الذي يمنع تكرار هذه النماذج في أماكن أخرى؟ ما يجري في غزة اليوم قد يشكّل نموذجًا قاتمًا لحروب الغد، حيث تُدار المعارك عبر الذكاء الاصطناعي، وتُبرّر الإبادات بأرقام واحتمالات.
في النهاية، فإن وجود ترسانة من أنظمة الذكاء الاصطناعي المصمّمة خصيصًا لقتل الفلسطينيين وتدمير بيئتهم العمرانية يشكّل دليلًا دامغًا على الطابع المنهجي للمشروع الصهيوني. ما من عذر تقني يمكنه تبرير هذا المستوى من التوحّش الرقمي، وما من إنكار سياسي يمكنه حجب الحقيقة: أن ما يُرتكب في غزة، هو جريمة إبادة ترتدي قناع التكنولوجيا.