جنرال لواء

يخدع الباحثون برامج التعرف على الصور في وضع العلامات على هذه السلحفاة على أنها بندقية


لقد دخلت ميزة التعرف على الصور إلى عالمنا بمعدل سريع للغاية في العقد الماضي ، ويتم تطويرها لمجموعة متنوعة لا تصدق من الأغراض ، من مراقبة المشتبه بهم في الإرهاب ، إلى مرايا الحمامات التي تستخدم البرنامج للمساعدة في التخطيط ليومك. ربما بسبب وجودها في كل مكان في حياتنا ، هناك بعض النقاد الذين يشعرون أن التكنولوجيا - التي تعتمد بشكل كبير على الخوارزميات - يمكن أن تقدم نتائج غير متوقعة ، أو غير متسقة في بعض الأحيان.

في الدراسات المشتركة ، وضع باحثون من جامعة كيوشو ومعهد ماساتشوستس للتكنولوجيا هذه النظرية على المحك ، وكانت النتائج مفاجئة للغاية. بشكل أساسي ، من خلال تعديل بعض التفاصيل فقط ، تمكنوا من خداع برنامج التعرف على الصور.

حاول الفريق الأول من جامعة كيوشو طريقة التقاط صورة وتعديل إحدى وحدات البكسل. الفكرة هي أن الشبكات العصبية ستتقطع ، وفي حالة الارتباك ستُصنَّف صور الكلاب خطأً على أنها خيول أو قطط أو حتى سيارات. من المثير للاهتمام أن نلاحظ أن عدد وحدات البكسل كان يقتصر على ألف بكسل فقط ، مما يعني أن نفس النتيجة ربما لم تتحقق مع الصور ذات الحجم الأكبر والتي تكون فيها أرقام البكسل بالملايين.

استخدمت مجموعة معهد ماساتشوستس للتكنولوجيا الطباعة ثلاثية الأبعاد لتحقيق نتائجها ، ولكن في هذه الحالة كانت التأثيرات أكثر دراماتيكية: تمثال سلحفاة مطبوع خدع خوارزمية لتصنيفها على أنها بندقية ، بينما كان يُنظر إلى لعبة البيسبول على أنها إسبرسو. على الرغم من أن تأثيرات النتيجة الأولى غير ضارة نسبيًا ، إلا أن نتائج التجربة الثانية أظهرت لفريق معهد ماساتشوستس للتكنولوجيا أن هذا الخطأ الفادح الصغير يمكن أن يترجم إلى مشاكل أكبر مع البرنامج عند تطبيقه في مجالات أخرى من الحياة اليومية.

أظهرت النتائج للفريقين مجالات أخرى محتملة ، لا سيما الأمثلة العدائية ، وهي "... مدخلات لنماذج التعلم الآلي التي صممها المهاجم عن قصد لإحداث خطأ في النموذج." ستتعرض الشبكات العصبية ، أساس الخوارزميات ، للهجوم.

يوضح أنيش أثالي ، من فريق معهد ماساتشوستس للتكنولوجيا: "بدأت المزيد والمزيد من أنظمة العالم الحقيقي في دمج الشبكات العصبية ، ومن دواعي القلق أن هذه الأنظمة قد تكون ممكنة للتخريب أو الهجوم باستخدام الأمثلة العدائية" ، مضيفًا أنه لا يزال هناك الارتباك حول المصدر. "لا يفهم مجتمع التعلم الآلي تمامًا ما يحدث مع الأمثلة العدائية أو سبب وجودها."

ومع ذلك ، كما يقول ، على الرغم من عدم وجود سبب يدعو إلى القلق الشديد ، إلا أن العمل جار من قبل شركات الويب المنافسة الكبرى مثل أمازون وجوجل وفيسبوك لتحديد النشاط. وهذا يعني ، كما يشير أثالي ، أننا لا نواجه حوادث فردية. "إنها ليست" حالة ركنية "غريبة أيضًا ... لقد أظهرنا في عملنا أنه يمكن أن يكون لديك كائن واحد يخدع باستمرار شبكة عبر وجهات النظر ، حتى في العالم المادي."

على الرغم من أن نتائج هذه الدراسات مجتمعة تكشف بلا شك عن بعض عيوب التصميم والتطوير لبرامج التعرف على الصور ، لا يزال هناك سؤال مهم: هل نقوم بتسريع تطوير - وتوقعات - التعرف على الصور بما يتجاوز سعته الحالية ، أم مؤشرات النتائج التي هناك قيود حقيقية للغاية ستبقى بغض النظر لأي جهود بحث وتطوير مستقبلية؟ فقط الوقت كفيل بإثبات.


شاهد الفيديو: ازاى بعمل صورة مصغرة للفيديو وازاى اجيب مشاهدات عاليه! (كانون الثاني 2022).