هل يجب تطوير أسلحة ذاتية التحكم بالذكاء الاصطناعي؟
المقدمة
هل يمكن أن تكون الآلة عادلة؟ وهل يمكن أن يكون السلاح "محايدًا" عندما يتخذ قرار القتل دون تدخل بشري؟ هذه ليست أسئلة تنتمي إلى عالم الخيال العلمي فحسب، بل أصبحت معضلات يومية تواجه صناع القرار، والمهندسين، والمجتمعات المدنية في عصر الذكاء الاصطناعي. يدور جدل جوهري حول طبيعة التكنولوجيا نفسها: هل هي مجرد أداة، كالسكين أو المطرقة، يمكن استخدامها في بناء منزل أو ارتكاب جريمة، أم أنها تحمل في تركيبها الداخلي انحيازاتٍ سياسية، ثقافية، وأخلاقية تجعلها أكثر من مجرد وسيلة محايدة؟
سياق النقاش
منذ قرون، شكّك المفكرون في فكرة أن الإنسان يمتلك السيطرة الكاملة على أدواته. فالفيلسوف ديفيد هيوم كان يرى أن الأخلاق لا تستمد من العقل وحده، بل من المشاعر — ما يفتح الباب أمام تساؤل: إذا كان الإنسان نفسه غير محايد، كيف نتوقع من تقنياته أن تكون كذلك؟ أما كارل ماركس، فقد ذهب أبعد من ذلك، حين رأى في التكنولوجيا جزءًا من البنية التحتية التي تعزز سيطرة الطبقة الحاكمة، وتُستخدم لإعادة إنتاج علاقات القوة. بمعنى آخر، المصنع ليس مجرد مكان لإنتاج السلع، بل آلة لإنتاج الاستغلال.
في القرن العشرين، تطور هذا الخطاب مع ظهور منظري التكنولوجيا مثل لانغدون وينر، الذي حذر في كتابه "السايبرنطيقا" من أن الأنظمة الآلية، حتى لو بُنيت بأهداف سلمية، يمكن أن تُستَخدم لأغراض استبدادية. وقال بوضوح: "التقنية ليست أداة محايدة، بل مرآة للمجتمع الذي أنتجها". وبعد عقود، نجد أنفسنا أمام تقنية لم تكن وينر ليتخيلها: أسلحة ذاتية التحكم تعتمد على الذكاء الاصطناعي، قادرة على تحديد الأهداف، واتخاذ قرارات قتل دون تدخل بشري مباشر.
اليوم، لم يعد السؤال تقنيًا بحتًا. فمع تطور خوارزميات التعلّم العميق، وأنظمة الرؤية الحاسوبية، والتنبؤ السلوكي، أصبح بإمكان نظام ذكاء اصطناعي أن "يرى" هدفه، ويصنّفه، ويقرّر تدميره. لكن من صمّم هذه الآلية؟ بأي بيانات درّبت؟ وفي أي سياق سياسي وعسكري ستُستخدم؟ كل هذه الأسئلة تعيدنا إلى جوهر الجدل: هل نحن أمام أداة يمكن توجيهها كما نشاء، أم أمام كيان تقني يحمل في طيّاته قيم من صمّموه، وتمويلهم، وأهدافهم؟
صياغة الإشكالية
إذا نظرنا إلى تطوير الأسلحة ذاتية التحكم باعتباره مجرد خطوة تطورية في سباق التسلح، فإننا نتعامل مع التقنية كشيء محايد — كأداة يمكن ضبطها، تنظيمها، ومنع سوء استخدامها عبر قوانين صارمة. ولكن إن اعتبرنا أن هذه الأسلحة تمثّل تجسيدًا لخيارات أخلاقية، وسياسات عسكرية، وتصورات عن العدو والتهديد، فإن الحيادية تصبح وهمًا خطيرًا. فالأسئلة الحقيقية هنا ليست فقط: "هل يجب تطوير هذه الأسلحة؟"، بل: "من يتحكم فيها؟ ولصالح من؟ وما هي القيم التي تُرسّخها في عالم ما بعد الإنساني؟".
هذا ما يجعل الإشكالية مركزية: فهي لا تتعلّق فقط بمستقبل الحروب، بل بمستقبل المسؤولية الإنسانية. فمن يُحاسب إذا قرّر ذكاء اصطناعي خطأً استهداف مدنيين؟ المصمّم؟ الجيش؟ الدولة؟ أم النظام نفسه؟ وهل يمكن لمخلوق رقمي أن يتحمّل وزر القتل؟
إذًا، يتجاوز النقاش الثنائي البسيط ("نعم/لا") إلى مستوى أعمق: هل نقبل بتحويل قرار القتل إلى عملية آلية، مدفوعة بخوارزميات قد تكون متحيّزة، أو غير شفافة، أو مبنية على بيانات تاريخية تميّز ضد مجموعات بعينها؟ وهل الحيادية التقنية تبرّر غياب الرقابة الأخلاقية على التصميم نفسه؟
هاتان وجهتا النظر — التقنية كأداة محايدة مقابل التقنية كحاملة للقيم — ستكونان محور مناظرتنا، لنختبر من خلالهما ما إذا كان من الممكن، أو المقبول، تطوير أسلحة ذاتية التحكم تعتمد على الذكاء الاصطناعي، في عالم لا يزال يبحث عن حدود للعقل الآلي، وعن معنى للإنسانية في عصر الآلات الذكية.
الحجة المؤيدة: التقنية أداة محايدة
هل يمكن أن تكون التقنية شريرة بحد ذاتها؟ هل يمكن أن يكون برنامج حاسوبي أو نظام ذكاء اصطناعي "عنصرًا مذنبًا"؟ بالنسبة للفريق المؤيد لتطوير الأسلحة ذاتية التحكم، فإن الإجابة ببساطة هي: لا. فالتقنية، من وجهة نظرهم، ليست كائنًا حيًا له نوايا أو ضمير، بل هي أداة تم إنشاؤها لأداء مهمة محددة — تمامًا مثل المطرقة، أو المحرك، أو حتى الإنترنت.
الطبيعة الوظيفية للتكنولوجيا
لنبدأ من الأساس: ما معنى أن تكون شيئًا تقنيًا؟ عندما يُصمَّم سكين، لا يُبنى ليقتل أو ليقطع الخبز؛ بل يُبنى ليقطع. هذه وظيفته. أما الغرض من استخدامه — فهو خارج نطاق التصميم. وهكذا، فإن كل تقنية، مهما تعقدت، تظل في جوهرها أداة تنفذ أوامر بناءً على برمجتها. الذكاء الاصطناعي في السلاح الذاتي لا "يقرر" بالمعنى الإنساني؛ بل يعالج بيانات، ويُفعّل استجابة وفق نماذج رياضية مدربة مسبقًا.
هذا يعني أن النظام لا يحمل انحيازًا أخلاقيًا في ذاته. فالذكاء الاصطناعي الذي يُستخدم اليوم في تشخيص السرطان من خلال صور الأشعة هو نفس النوع من التقنية التي يمكن أن تُستخدم في تتبع المدنيين عبر الكاميرات. التكنولوجيا واحدة، لكن النية مختلفة. إذًا، ليس من المنطقي — حسب هذا الرأي — أن نجرّم الأداة لأنها قد تُساء استخدامها. فالمسؤولية لا تقع على الخوارزمية، بل على من يوجّهها.
مبدأ "السلاح لا يقتل، الإنسان يقتل"
هذه العبارة البسيطة تحمل في طيّاتها حجة فلسفية عميقة. إنها تقول: لا تبحث عن المذنب في آلية القتل، بل في من أمر بها. عندما يُطلق جندي رصاصة، نحن لا نحاكم البندقية. وعندما يُفجّر إرهابي قنبلة، لا نقول إن الديناميت شرير. لماذا إذاً نعامل السلاح الذاتي بشكل مختلف فقط لأنه لا يحتاج إلى زر يُضغط؟
هذا المنطق يرفض تجريم التكنولوجيا بذاتها، ويشدد على أن الأخلاق لا توجد في الدارات الإلكترونية، بل في العقول البشرية التي تصمّم، تُوجّه، وتراقب. فإذا كان الذكاء الاصطناعي قادرًا على تقليل أخطاء البشر في ساحة المعركة — كاستهداف مواقع غير دقيقة أو إطلاق النار بدافع الخوف — فقد يكون أكثر دقة وانضباطًا من الجندي البشري. وهنا تأتي الحجة العملية: إن تطوير هذه الأسلحة ليس مجرد خيار تقني، بل قد يكون وسيلة لجعل الحروب أقل دموية، شريطة أن تُستخدم بمسؤولية.
أمثلة داعمة
لننظر إلى الإنترنت. شبكة تم إنشاؤها في الأصل لأغراض عسكرية وعلمية، ثم أصبحت منصة للتعليم، والتواصل، وتبادل المعرفة. لكنها في الوقت نفسه تُستخدم للتجسس، والتضليل، وتجنيد الإرهابيين. هل نقول إن الإنترنت تقنية شريرة لأنها تُستخدم في التجسس؟ بالطبع لا. بل نقر بأنها أداة محايدة، ونعمل على تنظيم استخدامها.
نفس الشيء ينطبق على الهواتف الذكية. يمكن لجهاز واحد أن يُستخدم في تنظيم ثورة، أو في تتبع مواطن حتى داخل بيته. هل نمنع تصنيع الهواتف لأنها قد تُستخدم في المراقبة؟ لا أحد يقول ذلك. بل نضع قوانين، ورقابة، ومؤسسات تراقب الاستخدام.
إذًا، لماذا نعامل السلاح الذاتي بالذكاء الاصطناعي بشكل استثنائي؟ لماذا نتوقف عند حدود التطور التكنولوجي، بينما نقبل به في كل مجال آخر؟ إذا كنا نثق بالذكاء الاصطناعي في قيادة السيارات، أو في تشغيل المصانع، أو في إدارة الشبكات الكهربائية، فلماذا لا نثق به — بشروط — في اتخاذ قرارات عسكرية دقيقة، تُختَصَر فيها ردود الفعل، وتُجنّب فيها الأخطاء البشرية؟
الفريق المؤيد لا يدعو إلى إطلاق العنان للآلات، بل إلى تطوير هذه الأسلحة ضمن أطر قانونية، وضوابط أخلاقية، وشفافية عالية. فالمشكلة، كما يرون، ليست في التكنولوجيا، بل في غياب التنظيم. ومن يعارض التطوير، لا يحمي الإنسانية — بل قد يُعطّل تقدمًا يمكن أن يجعل الحروب نفسها أقل بشاعة.
الحجة المعارضة: التقنية ليست محايدة
إذا كان الفريق المؤيد يرى في السلاح الذاتي مجرد أداة، كالمسدس أو الصاروخ، فإن الفريق المعارض يرفض هذا التبسيط الجذري. بالنسبة لهم، الحديث عن "حيادية التقنية" هو نوع من الخداع الفلسفي — أو ربما السياسي — يُسقط التعقيدات الأخلاقية والاجتماعية في قالب تقني ضيّق. فالذكاء الاصطناعي ليس مجرد برنامج حاسوبي عادي، بل نظام معقّد نما من بيانات بشرية، بُني بمعايير بشرية، ويُستخدم في سياقات بشرية مليئة بالصراعات. كيف يمكن لشيء كهذا أن يكون "محايدًا"؟
القيم المُضمَّنة في التصميم
لنأخذ مثالًا بسيطًا: خوارزمية تُستخدم في تصنيف "التهديد" على الحدود. قد تُدرّب هذه الخوارزمية على بيانات تاريخية تُظهر أن 80% من الهجمات الإرهابية المسجّلة ارتكبها رجال من خلفيات عرقية معيّنة. ماذا يحدث حين تُدخل هذه البيانات في نموذج الذكاء الاصطناعي؟ سينشأ نموذج "يحذر" بشكل تلقائي من أي رجل ينتمي لتلك الخلفية، حتى لو لم يكن لديه سجل جنائي، وحتى لو كان يحمل جواز سفر دبلوماسيًا.
هل هذا التمييز مقصود من المهندس؟ غالبًا لا. لكنه حاصل. لأنه حين نُدرّب الآلة على واقع متحيّز، فإننا نُعلّمها أن تتبنّى هذا التحيّز كـ"منطق". بمعنى آخر، الذكاء الاصطناعي لا يكتشف الحقيقة، بل يُعيد إنتاج التحيّزات الموجودة في البيانات. وهنا تكمن المشكلة: التحيّز ليس في الاستخدام، بل في التصميم.
نفس الأمر ينطبق على السلاح الذاتي. إذا درّبت نظام ذكاء اصطناعي على تحديد "الأهداف المشبوهة" بناءً على صور من مناطق حرب سابقة، فقد يتعلّم أن كل شخص يحمل شيئًا طويلاً في يده هو "مسلح"، حتى لو كان مزارعًا يحمل عصا. وقد يتعلّم أن الدراجات النارية تشير إلى "خطر محتمل"، لأنها كانت مرتبطة بهجمات سابقة. هذه ليست أخطاء تقنية، بل انعكاس لقرارات أولية: ما الذي ندرّبه عليه؟ بأي بيانات؟ ومن هم "العدو" في عيون المصمّم؟
التصميم إذًا ليس عملية محايدة. كل زر، كل معامل رياضي، كل اختيار لبيانات التدريب، هو قرار يحمل في طيّاته افتراضات عن العالم. والأسوأ أن هذه القرارات غالبًا ما تُتخذ في غرف مغلقة، من قبل شركات خاصة، أو جيوش سرّية، دون رقابة ديمقراطية. فلا نعرف ما الذي بُني داخل النظام، ولا من وضع تلك القواعد.
التقنية كتعبير عن السلطة
لكن لنذهب أبعد: لماذا نطور أسلحة ذاتية التحكم الآن، وفي هذه الدول بالذات؟ الإجابة ليست تقنية، بل سياسية. الدول الكبرى — الولايات المتحدة، الصين، روسيا — تستثمر مليارات الدولارات في هذه الأسلحة ليس فقط للدفاع، بل لإرسال رسالة: "نحن نملك مستقبل الحرب". هذه الأسلحة ليست أدوات دفاع، بل أدوات هيمنة. فهي تُقلّل الحاجة إلى الجنود، وتُسرّع اتخاذ القرار، وتُعطي الدولة القدرة على تنفيذ ضربات دقيقة دون تعريض مواطنيها للخطر. بعبارة أخرى: تُجنّب الطبقة الحاكمة تكلفة الدم المحلية، بينما تستمر في شن العمليات العسكرية.
وهنا تظهر التكنولوجيا كجزء من بنية القوة. فالسلاح الذاتي لا يتساوى في الوصول إليه. لا يمكن لدولة نامية أن تُنتج نظامًا يعتمد على تريليونات المعطيات، ومراكز بيانات ضخمة، وشبكات اتصال فائقة السرعة. إذًا، من يملك الذكاء الاصطناعي العسكري، يملك القدرة على فرض إرادته. وهذا يجعل التقنية أداة للهيمنة، لا مجرد أداة قتل.
بل إن بعض الخبراء يرون أن هذه الأسلحة قد تُستخدم يومًا ضد الشعوب نفسها. تخيل نظام مراقبة مزوّد بذكاء اصطناعي قادر على رصد "السلوك المشبوه" في الشوارع، ثم إطلاق تحذيرات تلقائية، أو حتى اعتقالات. في الصين، نرى بوادر ذلك في نظام الائتمان الاجتماعي. وفي أماكن أخرى، تُستخدم الكاميرات الذكية لتحديد المتظاهرين. فإذا كانت التقنية تُستخدم للقمع الداخلي، فكيف نتحدث عن حيادها؟
نقد الحيادية كوهم
ربما أخطر ما في فكرة "الحيادية التقنية" أنها تُستخدم لتبرير الغياب الأخلاقي. عندما يقول أحد: "التقنية محايدة"، فهو بذلك يفكّك المسؤولية عن المصمّم، وعن الدولة، وعن الشركة. وكأننا نقول: "لم نقصد ذلك، الآلة فعلت ما درّبناها عليه". لكن من درّبها؟ من اختار البيانات؟ من وقّع على المشروع؟
الادعاء بالحيادية هو وسيلة لتجنب المساءلة. إنه يحوّل السؤال من "هل كان تطوير هذا السلاح صحيحًا؟" إلى "كيف نمنع سوء استخدامه؟". والفرق كبير. الأول يسأل عن النية والقيم، والثاني يفترض أن التطوير كان مشروعًا مقبولًا من البداية.
تخيل أن شركة طوّرت سلاحًا يُستهدف به سكان منطقة بناءً على لون بشرتهم، ودافعت عنه قائلة: "نحن لم نبرمج التمييز، بل درّبنا النظام على البيانات الواقعية". هل تقبل هذه الحجة؟ بالطبع لا. لأن "الواقعية" نفسها قد تكون عنصرية. فالمشكلة ليست في الخوارزمية، بل في من سمّح لها بالوجود، ومن موّلها، ومن صمّمها دون رقابة.
الحديث عن الحيادية إذًا هو وهم — ووهم خطير. لأنه يفتح الباب أمام تطوير أنظمة قتل آلية، بدون أن نطرح السؤال الأخلاقي الأساسي: هل يجب أن نسمح أبدًا لآلة باتخاذ قرار القتل؟ وهل يمكن لخوارزمية أن تفهم معنى الموت، أو قيمة الحياة، أو ثقل اللحظة التي يُقتل فيها إنسان بريء؟
الجواب، كما يراه الفريق المعارض، هو لا. ليس لأن الذكاء الاصطناعي شرير، بل لأن السماح له باتخاذ قرارات قتل يعني تفكيك المسؤولية الإنسانية، وتحويل الحرب إلى عملية آلية، تجري في الظل، بعيدًا عن الضمير، والشفافية، والمحاسبة.
تحليل نقدي: ما وراء الثنائية
إذا تأملنا جيدًا، نجد أن الجدل حول "حيادية التقنية" يشبه خلافًا قديمًا: هل البيضة قبل الدجاجة أم العكس؟ الفريق المؤيد يقول: التقنية مجرد أداة، والبشر هم من يمنحونها المعنى. والفريق المعارض يقول: لا، التقنية تُشكل البشر قبل أن تُستخدم. وكلاهما جزئيًا على حق، لكن كلاهما أيضًا يفتقد الصورة الكاملة.
ربما المشكلة ليست في طرح السؤال "هل التقنية محايدة؟"، بل في تصورنا لها كشيء ثابت، كائن منفصل عنّا. كأن نضع سلاحًا ذكيًا على طاولة، وننظر إليه كقطعة حديد وزجاج، ثم نتساءل: هل هذا الشرير؟ لكن ماذا لو لم تكن التقنية شيئًا نصنعه ثم نستخدمه، بل عملية مستمرة من التفاعل؟ ماذا لو كانت الآلة لا تُغيّر العالم فحسب، بل تُغيّرنا نحن أثناء ذلك؟
التقنية كعملية ديناميكية
تخيل أن أول إنسان صنع عجلة. لم تكن العجلة مجرد "أداة" تُستخدم لنقل الحمولة. بمجرد ظهورها، بدأت القرى تتغير: أصبح التنقل أسهل، فتوسعت المسافات، وظهرت طرق جديدة، ثم مدن، ثم جيوش، ثم تجارة، ثم تمييز اجتماعي بين من يملك عربة ومن لا يملك. العجلة لم تُستخدم فقط — بل شكّلت مجتمعًا جديدًا.
نفس الشيء ينطبق على السلاح الذاتي بالذكاء الاصطناعي. ليس صحيحًا أننا "نطوره اليوم، ثم نقرر لاحقًا كيف نستخدمه". بل إن تطويره الآن يُعيد تشكيل الجيوش، وسياسات الدفاع، وتعريف "الحرب"، بل وحتى "العدو". عندما ندرّب نظام ذكاء اصطناعي على بيانات من حروب سابقة، فإننا لا نعطيه معلومات — بل نورّث له نظرتنا السابقة للتهديد، التي غالبًا ما تكون متحيزة ضد جماعات عرقية أو دينية معينة.
وهنا تأتي نظرية مهمة تُسمّى "البناء الاجتماعي للتكنولوجيا" (SCOT). تقول هذه النظرية إن التكنولوجيا لا تُفرض من الأعلى، ولا تُخلق بمعزل عن الناس، بل تُبنى عبر تفاعل مستمر بين المهندسين، والمستخدمين، والحكومات، والرأي العام. فمثلًا، لم تُفرض السيارات على المجتمع، بل تطوّرت لأن الناس أرادوا حرية التنقل، ودعمتها شركات النفط، وشجّعتها القوانين. كان هناك "تحالف اجتماعي تقني".
السلاح الذاتي ليس استثناءً. هو لا يُبنى فقط في مختبرات عسكرية، بل في سياق سياسي يُقدّر السرعة على المساءلة، والقوة على الشفافية. وعندما نقول "لن نستخدمه ضد المدنيين"، فإننا نتجاهل أن استخدامه في المجال العسكري سيُغيّر تلقائيًا مفهوم "المدني" — فقد يُصنّف النظام شخصًا يحمل هاتفًا في منطقة حرب كـ"مقاتل محتمل"، فقط لأنه تعلّم أن 70% من المقاتلين السابقين كانوا يحملون هواتف.
التقنية إذًا ليست بداية ولا نهاية. هي حلقة في دائرة مستمرة: نصنعها، فتصنعنا، فنعيد صنعها بشكل مختلف. ولذلك، الحديث عن "حيادها" كأنها كائن خارجي، يشبه أن ننظر إلى النار ونقول: "إنها محايدة"، بينما ننسى أن النار لا تحرق فقط — بل تُغيّر أيضًا من طريقة تفكير الإنسان، منذ أن تعلم الطهي، وصار يأكل طعامًا مطهوًا، فتغيرت أسنانه، وتقلّص حجمه، وازداد دماغه.
دور السياق والثقافة
تخيل سلاحًا ذكيًا يتم نشره على حدود دولة ما. في الدولة المنتجة له، يُروّج له كـ"درع وقائي"، ونموذج للتقدم التكنولوجي. أما في الدولة المجاورة، فقد يُنظر إليه كرمز للتهديد، أو حتى للاحتلال الرقمي. نفس الجهاز، نفس الخوارزمية، نفس الكاميرا — لكن المعنى مختلف تمامًا.
هذا لا يعني أن التقنية " subjective " أو أنها لا تحمل حقيقة تقنية. بل يعني أن استخدامها، وتفسيرها، وقبولها، يعتمد على السياق. في مجتمع ديمقراطي، قد تُطالب مؤسسات الرقابة بشفافية كاملة في خوارزميات التصنيف. أما في نظام استبدادي، فقد يُستخدم نفس السلاح لمراقبة المعارضين، وتبرير ذلك بذريعة "مكافحة الإرهاب".
التحيّز إذًا ليس دائمًا في الكود، بل في العلاقة بين الكود والمكان. وقد أثبتت دراسات أن أنظمة التعرف على الوجه تُخطئ أكثر مع البشر من ذوي البشرة الداكنة — ليس لأن التكنولوجيا "عنصرية"، بل لأنها درّبت على بيانات غالبيتها من وجوه بيضاء. لكن حتى هذا "الخطأ التقني" يصبح فعلًا سياسيًا حين يُستخدم لاعتقال أبرياء في حي فقير.
السؤال إذًا ليس: هل يمكن استخدام السلاح لأغراض سلمية؟ بل: في أي عالم يجعل هذا السلاح "منطقيًا"؟ عالم يقبل بتحويل القرار الأخلاقي — من القتل إلى عدم القتل — إلى خوارزمية، هو عالم يُعيد تعريف الإنسانية نفسها. وربما لا ندرك أننا نسير نحو هذا العالم إلا بعد أن يصبح الأمر مألوفًا.
مسؤولية المصمّمين والمجتمع
هنا نصل إلى النقطة الأكثر خطورة: إذا كانت التقنية ليست محايدة، ولا حتى "أداة"، بل جزء من شبكة معقدة من العلاقات الاجتماعية، فمن يتحمل المسؤولية؟
ليس كافيًا أن نقول: "المصمم ليس مسؤولًا عن سوء الاستخدام". لأن المصمم يختار البيانات، ويحدد المعايير، ويُصمم واجهة المستخدم بطريقة تُسهّل اتخاذ قرار القتل بسرعة، وتُعقّد إيقافه. كل خيار تصميمي هو اختيار أخلاقي، حتى لو لم يُقدّم كذلك.
هنا تظهر فكرة مهمة تُسمّى "الفعالية المادية": أي أن للأشياء تأثيرها الخاص، حتى بدون نية. مثال بسيط: السلالم تصعب على كراسي المتحركة، ليس لأن مهندسها أراد استبعاد ذوي الإعاقة، بل لأن تصميمها يعكس أولويات معينة. الحل ليس ترك السلالم كما هي وانتظار "استخدام أخلاقي"، بل إعادة التصميم ليكون شاملاً.
نفس الشيء مع السلاح الذاتي. بدلاً من تطويره أولًا ثم "مراقبته لاحقًا"، يجب أن نسأل: كيف نُصمّم نظامًا يجعل من الصعب ارتكاب جريمة حرب؟ كيف نبني خوارزمية تطلب تدخلًا بشريًا عند الشك؟ كيف نجعل الشفافية جزءًا من الهيكل، وليس مجرد "تقرير سنوي"؟
لكن الأهم من ذلك: يجب ألا يكون القرار في يد المهندس وحده، ولا الجيش، ولا الشركة المصنعة. بل يجب أن يكون للمجتمع دور. النقاش حول تطوير هذه الأسلحة لا ينبغي أن يقتصر على الخبراء والعسكريين. بل يجب أن يشمل فقهاء، وفنانين، وعمال، وناشطين حقوقيين، وطلاب مدارس. لأن ما نصنعه اليوم لن يقتل فقط — بل سيُعلّم الأجيال القادمة أن القتل يمكن أن يكون "آليًا"، "فعالًا"، و"منطقيًا".
الحيادية التقنية، في هذا السياق، ليست فقط وهمًا — بل قد تكون خيانة. خيانة للمسؤولية الجماعية، ولحقنا في تقرير شكل العالم الذي نريد أن نعيش فيه.
ربما لا يوجد حل وسط بين الفريقين. بل هناك طريق ثالث: ألا نتوقف عن التفكير في التقنية كشيء منفصل عنا، بل كامتداد لاختياراتنا، وصراعاتنا، وقيمنا. وعندما نفهم ذلك، لن نسأل بعد ذلك: "هل يجب تطوير هذه الأسلحة؟"، بل: "ما نوع الإنسان الذي نريد أن نصبح عليه حين نمتلكها؟".
الخاتمة
في النهاية، ربما لم يكن السؤال يومًا عن حيادية التقنية، بل عن مسؤوليتنا أمامها.
بعد أن سلكنا طريق المناظرة بين الفريق المؤيد، الذي يرى في السلاح الذاتي أداة كأي أداة، والفريق المعارض، الذي يرى فيه تجسيدًا للتحيّز والسلطة، نصل إلى نقطة تحول: لا يمكن اختزال مستقبل الذكاء الاصطناعي العسكري في ثنائية "أداة مقابل كيان". فالحقيقة أكثر تعقيدًا، وأكثر إلحاحًا.
السلاح الذاتي بالذكاء الاصطناعي ليس مجرد برنامج ينفذ أوامر. إنه نظام نشأ من خيارات بشرية: من اختيار البيانات التي درّب عليها، إلى تحديد من هو "هدف" ومن هو "مدني"، من تصميم واجهة النظام إلى تحديد متى يُطلق النار. كل هذه اللحظات كانت لحظات أخلاقية، حتى لو تم تقديمها على أنها "فنية".
ومن هنا، تنهار فكرة الحيادية تمامًا. لا يمكن لشيء مبني على بيانات تاريخية مليئة بالتحيّز، ومموّل من قبل دول ذات أجندات استراتيجية، ومصمم في معامل عسكرية بعيدة عن الشفافية، أن يكون "محايدًا". هذا ليس حكمًا ضد التكنولوجيا، بل ضد الإنكار.
السؤال الحقيقي إذًا ليس: "هل يجب تطوير هذه الأسلحة؟"، بل: "ما القيم التي نريد أن تُرسّخها من خلالها؟". هل نريد عالمًا يُتخذ فيه قرار القتل بسرعة، لكن دون مساءلة؟ أم نريد عالمًا يُرفض فيه تفويض الموت للآلات، لأن في ذلك زوال للإنسانية من صميم القرار الأخلاقي؟
الخطر الأكبر لا يكمن في وجود هذه الأسلحة، بل في تطبيعها. في أن نعتاد أن تُستبدل العيون البشرية بكاميرات، والعقول بخوارزميات، والضمائر بصمامات أمان تقنية. لأن في كل مرة نقول فيها "الذكاء الاصطناعي سيقلل الأخطاء"، ننسى أن الخطأ في قتل مدني لا يُحسب كخطأ تقني، بل كجريمة أخلاقية.
ولذلك، لا يمكن ترك مستقبل هذه التقنيات للخبراء وحدهم. لا يمكن أن يكون المصمّم الوحيد لمستقبل الحرب مهندسًا في شركة تكنولوجيا دفاعية، أو جنرالًا في غرفة عمليات. يجب أن يكون هناك مكان للمواطن، للمعلم، للطبيب، للفيلسوف، للشهيد، وللضحية في نقاش التصميم الأول.
الحل لا يكمن في التوقف عن التفكير، ولا في الهروب إلى الخيال، بل في المشاركة. في بناء آليات ديمقراطية تحكم تطوير هذه الأنظمة: مجالس أخلاقية، شفافية في خوارزميات التدريب، اتفاقيات دولية حقيقية — مثل تلك التي منعت الأسلحة الكيميائية والألغام الأرضية.
ربما لن نمنع كل سلاح ذكي، لكن يمكننا أن نمنع أن يصبح عالمًا بلا ضمير. يمكننا أن نختار أن تكون تقنياتنا انعكاسًا لعدالتنا، لا لسرعتنا. أن تكون أدوات حماية، لا آلات هيمنة.
لأن في النهاية، لا تسأل الآلة لماذا تقتل. لكننا نحن من يجب أن نستمر في طرح هذا السؤال — كل يوم، وكل لحظة، قبل أن تصبح الإجابة مستحيلة.