جنرال لواء

بريطانيا ستعارض حظراً استباقياً على "الروبوتات القاتلة"

بريطانيا ستعارض حظراً استباقياً على


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

المخاوف بشأن إمكانية تحويل الروبوتات المستقلة إلى أسلحة فتاكة هي حالة متأخرة جدًا وفقًا للخبراء في هذا المجال. تضافرت جهود الشخصيات البارزة في مجال الذكاء الاصطناعي (AI) وصناعة الروبوتات للمطالبة بفرض حظر تام على "الروبوتات القاتلة". تم توقيع الرسالة المفتوحة الموجهة إلى الأمم المتحدة من قبل تسلا والرئيس التنفيذي لمنظمة Open AI Elon Musk بالإضافة إلى 115 "خبيرًا" آخر بما في ذلك مصطفى سليمان من Alphabet.

كتبت المجموعة: "بمجرد تطوير الأسلحة المستقلة الفتاكة ، ستسمح بخوض نزاع مسلح على نطاق أكبر من أي وقت مضى ، وفي نطاقات زمنية أسرع مما يستطيع البشر فهمه. يمكن أن تكون هذه أسلحة إرهاب ، أسلحة يستخدمها الطغاة والإرهابيون ضد السكان الأبرياء ، والأسلحة المخترقة للتصرف بطرق غير مرغوب فيها. ليس لدينا وقت طويل للعمل. بمجرد فتح صندوق Pandora هذا ، سيكون من الصعب إغلاقه ".

لكن المراقبين وصفوا الرسالة بأنها ساذجة وأشاروا إلى أمثلة يعمل فيها الدفاع والروبوتات بالفعل جنبًا إلى جنب.

تارانيس ​​[مصدر الصورة: أنظمة BAE]

ومن الأمثلة على ذلك نظام Taranis ، وهو نظام طائرات مقاتلة بدون طيار صممته شركة BAE وغيرها ، بالإضافة إلى مدفع الحراسة SGR-A1 المستقل الذي صنعته شركة Samsung وتم نشره على طول الحدود الكورية الجنوبية. تم تجهيز الروبوت الذاتي بمدفع رشاش ويستخدم مستشعرات الحرارة والحركة للعثور على أهداف على بعد ميلين.

الإجابة على هذه القضية ليست سهلة. لا يزال تعريف المصطلحات يمثل مشكلة كبيرة في مجالات الروبوتات والذكاء الاصطناعي. تم توضيح الارتباك بشكل جيد من خلال وسائل التواصل الاجتماعي بين ماسك والرئيس التنفيذي لشركة Facebook Mark Zuckerberg حول فهمهما للذكاء الاصطناعي.

قالت وزارة الدفاع البريطانية إنها لن تدعم فرض حظر استباقي على الروبوتات القاتلة. قالوا إنه بينما ليس لديهم حاليًا خطط لبناء أسلحة مستقلة ، إلا أنهم لن يدعموا الحظر. قال متحدث باسم الوزارة: "من الصواب أن يتم تشغيل أسلحتنا من قبل أشخاص حقيقيين قادرين على اتخاذ قرارات معقدة ، وحتى عندما يصبحون على درجة عالية من التكنولوجيا العالية ، فإنهم سيظلون دائمًا تحت السيطرة البشرية".

لا يمكن إجراء مناقشة حول الأسلحة دون مناقشة أوسع حول تسليع الحرب بشكل عام. هناك خط رفيع بين المتعاقدين الدفاعيين الخاصين والحكومات التي أصبحت ضبابية أكثر من مرة في تاريخ البشرية. هل سيكون من الممكن تغيير المحادثة من التشكيك في الحاجة إلى الروبوتات القاتلة للتشكيك في الحاجة إلى الحرب بشكل عام؟ في حين أن هذا أيضًا رد ساذج ، يجب أن يكون النقاش واسعًا ومفتوحًا حتى تتمكن من العثور على أي إجابات على الإطلاق.

من ناحية ، يمكن القول أنه إذا كان هناك قتال ، أليس من الأفضل للتكنولوجيا أن تقوم بالقتل والقتل بدلاً من الجنود البشر؟ هل يمكن لهذا أن يجعل الحرب معركة "أكثر عدلاً"؟ قد تقل احتمالية إصابة الروبوتات بالهدف الخطأ أو أن تكون تحت رحمة الخوف والأدرينالين والصدمة عند اتخاذ قرارات استراتيجية.

أصدرت منظمة هيومن رايتس ووتش تقريرًا عن Killer Robots في عام 2012 يرى الأمر بطريقة أخرى. يقول التقرير: "إن التمييز بين مدني خائف ومقاتل عدو مهدد يتطلب من الجندي أن يفهم النوايا الكامنة وراء أفعال الإنسان ، وهو شيء لا يستطيع الروبوت فعله" ، ويمضي قائلاً "لن تقيد العواطف البشرية والروبوتات. القدرة على التعاطف ، والتي يمكن أن توفر رقابة مهمة على قتل المدنيين ".

بغض النظر عن وجهة نظرك ، هذا نقاش أساسي في عصرنا.

المصادر: الجارديان ، ديلي ميل ، تلغراف

راجع أيضًا: 116 متخصصًا من بينهم Elon Musk يطالبون بالحظر الكامل للروبوتات القاتلة


شاهد الفيديو: Korea International Robot Contest 2014 - Rumble (يوليو 2022).


تعليقات:

  1. Toxeus

    يشعر المرء أن الموضوع ليس قريبًا تمامًا من المؤلف.

  2. Cheikh

    لا تحزن! أكثر متعة!

  3. Taveon

    فيه شيء. شكرا على المعلومه. لم اكن اعرف هذا.

  4. Bean

    بالتاكيد. كل ما سبق صحيح. دعونا نناقش هذه المسألة.

  5. Inerney

    واو ، عدد كبير من الزوار يقرأون المدونة.

  6. Tera

    هناك شيء في هذا.الآن كل شيء واضح ، شكرًا على المساعدة في هذا الأمر.



اكتب رسالة