سياسة

هل ينجو البشر من فخ “الرأس الأصلع”؟


في عام 2020، استمرت كاميرا الذكاء الاصطناعي في إحدى مباريات كرة القدم باسكتلندا. في الخلط بين الكرة والرأس الأصلع على الخطوط الجانبية.

كانت تلك إحدى مظاهر التقدم السريع في تكنولوجيا الذكاء الاصطناعي، التي أثارت مخاوف كثيرين حول العالم لاسيما مع اقتحام هذه التكنولوجيا ساحات الحروب. وتحويلها إلى سلاح يقرر الحياة والموت دون أي تدخل بشري.

إنها “الروبوتات القاتلة” التي يجمع خبراء عسكريون على أن بإمكانها تغيير وجه الحرب. لكنها تثير تساؤلات حول أين تبدأ حدود السيطرة البشرية وأين تنتهي؟

ويؤدي ظهور مثل هذه الآلات ونشرها إلى إثارة مناقشات مكثفة بين الخبراء والناشطين والدبلوماسيين في جميع أنحاء العالم وهم يتصارعون مع الفوائد والمخاطر المحتملة لاستخدام الروبوتات. ويفكرون في إمكانية إيقافها وكيفية إيقافها.

هذا ما ناقشه مؤتمر دولي في فيينا بحضور أكثر من 900 مندوب .ومبعوث من منظمات غير حكومية ودولية من حوالي 143 دولة. داعيا إلى تجديد الجهود لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة المستقلة التي يمكن أن تخلق ما يسمى بـ “الروبوتات القاتلة”.

الإنسانية على مفترق طرق

ويهدف المؤتمر المنعقد تحت عنوان “الإنسانية على مفترق الطرق: أنظمة الأسلحة الذاتية التشغيل وتحدي التنظيم” إلى إحياء المناقشات المتوقفة إلى حد كبير حول هذه القضية.

ومع التقدم السريع في تكنولوجيا الذكاء الاصطناعي. تقترب أنظمة الأسلحة التي يمكن أن تقتل دون تدخل بشري من أي وقت مضى. مما يفرض تحديات أخلاقية وقانونية تقول معظم البلدان إنها بحاجة إلى معالجتها قريبا.

وأمام اجتماع فيينا، قال وزير الخارجية النمساوي ألكسندر شالنبرج:  “لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء. الآن هو الوقت المناسب للاتفاق على القواعد والمعايير الدولية لضمان السيطرة البشرية”.

مضيفا “على الأقل دعونا نتأكد من أن القرار الأعمق والأبعد. من يعيش ومن يموت، يبقى في أيدي البشر وليس في أيدي الآلات”.

من جهتها، دعت رئيسة اللجنة الدولية للصليب الأحمر. ميريانا سبولجاريك، خلال حلقة نقاش في المؤتمر، إلى ضرورة “التحرك بسرعة كبيرة”.

وفي وقت سابق من الشهر الجاري، أعلنت الولايات المتحدة. أنها تدرس تقريرا إعلاميا يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.

وقال جان تالين، مبرمج برمجيات ومستثمر في مجال التكنولوجيا: “لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء في الاختيار بطرق كبيرة وصغيرة. بدءا من سوء التعرف على رأس الحكم الأصلع باعتباره كرة قدم. إلى وفيات المشاة الناجمة عن السيارات ذاتية القيادة غير القادرة على التعرف على السير المخالف”.

وفي هذا الصدد، شدد على “الحذر للغاية بشأن الاعتماد على دقة هذه الأنظمة. سواء في القطاع العسكري أو المدني”.

وتقول منظمة “هيومن رايتس ووتش” إن الأسلحة المستقلة بالكامل. والمعروفة باسم “الروبوتات القاتلة” ستكون قادرة على اختيار الأهداف والاشتباك معها دون سيطرة بشرية ذات معنى.

ويتم تطوير ونشر نظراء لهذه الأسلحة، مثل الطائرات المسلحة بدون طيار. من قبل دول بما في ذلك الولايات المتحدة وإسرائيل وروسيا وغيرها.

تابعونا على
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى