مشيني قاتل جو ڀوت جاري آهي. صدر پيوٽن ڇا تي يقين رکي ٿو؟
ٽيڪنالاجي جو

مشيني قاتل جو ڀوت جاري آهي. صدر پيوٽن ڇا تي يقين رکي ٿو؟

فوجي روبوٽ جا حامي (1) دليل ڏين ٿا ته خودڪار هٿيار انساني زندگي جي حفاظت لاء وڌيڪ اختيارات مهيا ڪن ٿا. مشينون سپاهين جي ڀيٽ ۾ دشمن جي ويجھو حاصل ڪرڻ جي قابل آهن، ۽ صحيح طور تي خطري جو اندازو لڳايو. ۽ جذبات ڪڏهن ڪڏهن صحيح فيصلا ڪرڻ جي صلاحيت کي مفلوج ڪري ٿو.

قاتل روبوٽس جي ڪيترن ئي وڪيلن کي يقين آهي ته اهي جنگين کي گهٽ خوني بڻائيندا ڇو ته گهٽ سپاهي مرندا. اهي نوٽ ڪن ٿا ته روبوٽ، جڏهن ته رحم نه ٿا ڪن، منفي انساني جذبات جهڙوڪ خوف، ڪاوڙ ۽ انتقام کان محفوظ آهن، جيڪي اڪثر ڪري جنگي ڏوهن جو سبب بڻجن ٿا.

انساني حقن جا ڪارڪن پڻ اهو دليل استعمال ڪن ٿا ته فوج گذريل اڌ صديءَ دوران عام شهرين جي موت ۾ وڏي گهٽتائي جو سبب بڻي آهي، ۽ فوج جي روبوٽائيزيشن جنگ جي قانونن کي وڌيڪ سختيءَ سان لاڳو ڪرڻ لاءِ هڪ ميکانيزم جي اجازت ڏئي ٿي. اهي دعوي ڪن ٿا ته مشينون اخلاقي بڻجي وينديون آهن جڏهن اهي سافٽ ويئر سان ليس هوندا جيڪي انهن کي جنگ جي قانونن جي فرمانبرداري ڪرڻ تي مجبور ڪندا.

يقينن، ماڻهن جو هڪ وڏو تعداد، جن ۾ تمام مشهور آهن، هن راء کي سالن تائين حصيداري نٿا ڪن. اپريل 2013 ۾، هڪ بين الاقوامي مهم جو نعرو هيٺ شروع ڪيو ويو (2). ان جي فريم ورڪ اندر، غير سرڪاري تنظيمون خودمختيار هٿيارن جي استعمال تي مڪمل پابندي جو مطالبو ڪن ٿيون. ڪيترن ئي ملڪن جا ماهر پهرين مئي 2014 ۾ جنيوا ۾ گڏيل قومن جي ڪانفرنس ۾ هن موضوع تي بحث ڪرڻ لاءِ ويٺا. هيومن رائٽس واچ پاران ڪجهه مهينن بعد شايع ٿيل هڪ رپورٽ ۽ هارورڊ يونيورسٽيءَ جي سائنسدانن چيو ته خود مختيار ماڻهو به تمام خطرناڪ هوندا - انهن پنهنجون نشانو چونڊيو ۽ ماڻهن کي ماريو. ساڳئي وقت، اهو واضح ناهي ته ڪير احتساب ٿيڻ گهرجي.

2. عمل جي حصي طور مظاهرا ”اسٽاپ قاتل روبوٽس“

ننڍڙا ڊرون ڇا ڪري سگهن ٿا

قاتل روبوٽس (ROU) جي چوڌاري تڪرار سالن کان جاري آهن ۽ ختم نه ٿيندا آهن. تازو مهينا فوجي روبوٽس کي روڪڻ لاء نئين ڪوششون ۽ هن قسم جي نئين منصوبن جي رپورٽن جي هڪ لهر کڻي آيا آهن، جن مان ڪجهه حقيقي جنگي حالتن ۾ پڻ آزمائي رهيا آهن.

نومبر 2017 ۾، هڪ وڊيو ڏيکاريندي ميني ڊرونز جي خطرناڪ swarms .، خوفناڪ عمل ۾. ڏسندڙن ڏٺو آهي ته اسان کي هاڻي وڏي جنگي مشينن، ٽينڪن، يا راڪيٽ جي ضرورت نه رهي آهي جيڪي پريڊٽرز طرفان اڇلائي وڏي تعداد ۾ ۽ مشين گنن سان مارڻ لاءِ. ليڊ ڊائريڪٽر اسٽيورٽ رسل، برڪلي ۾ مصنوعي ذهانت جو پروفيسر، چوي ٿو:

-

آخري بهار پنجاهه پروفيسر دنيا جي معروف يونيورسٽين ڪوريا انسٽيٽيوٽ آف ايڊوانسڊ سائنس اينڊ ٽيڪنالاجي (KAIST) ۽ ان جي پارٽنر Hanwha Systems لاءِ هڪ اپيل تي دستخط ڪيا آهن. انهن اعلان ڪيو ته اهي يونيورسٽي سان تعاون نه ڪندا ۽ KAIST مهمانن جي ميزباني ڪندا. سبب ٻنهي ادارن پاران "خودمختيار هٿيارن" جي تعمير هئي. KAIST ميڊيا جي رپورٽن کي رد ڪري ڇڏيو.

ٿوري دير کان پوء آمريڪا ۾ 3 کان وڌيڪ گوگل ملازم فوج لاءِ ڪمپني جي ڪم خلاف احتجاج ڪيو. انهن کي خدشو هو ته گوگل هڪ سرڪاري پروجيڪٽ سان ڀائيواري ڪري رهيو هو جنهن جو ڪوڊنيم Maven آهي جنهن جو مقصد فوجي ڊرون ويڊيوز ۾ شيون ۽ چهرن کي سڃاڻڻ لاءِ AI استعمال ڪرڻ آهي. ڪمپني جي انتظاميا جو چوڻ آهي ته ميون جو مقصد زندگيون بچائڻ ۽ ماڻهن کي مشڪل ڪم کان بچائڻ آهي، جارحيت نه. احتجاج ڪندڙن کي يقين نه آيو.

جنگ جو ايندڙ حصو اعلان هو مصنوعي ڄاڻ رکندڙ ماهر, incl گوگل پروجيڪٽ تي ڪم ڪري رهيو آهي ۽ ايلون مسڪ. اهي واعدو ڪندا آهن ته روبوٽ ترقي نه ڪندا. اهي حڪومتن تي پڻ سڏين ٿا ته انهن هٿيارن کي منظم ۽ محدود ڪرڻ لاءِ ڪوششون تيز ڪن.

بيان چوي ٿو، جزوي طور تي، "انساني زندگي وٺڻ جو فيصلو ڪڏهن به مشين ذريعي نه ورتو وڃي." جيتوڻيڪ دنيا جون فوجون ڪيترن ئي خودڪار ڊوائيسز سان ليس آهن، ڪڏهن ڪڏهن خودمختاري جي اعلي درجي سان، ڪيترن ئي ماهرن کي ڊپ آهي ته مستقبل ۾ هي ٽيڪنالاجي مڪمل طور تي خودمختيار ٿي سگهي ٿي، انساني آپريٽر ۽ ڪمانڊر جي شموليت کان سواء قتل جي اجازت ڏئي ٿي.

ماهرن اهو به خبردار ڪيو آهي ته خودمختيار مارڻ جون مشينون ”ايٽمي، ڪيميائي ۽ حياتياتي هٿيارن“ کان به وڌيڪ خطرناڪ ثابت ٿي سگهن ٿيون، ڇاڪاڻ ته اهي آساني سان ڪنٽرول کان ٻاهر نڪري سگهن ٿيون. مجموعي طور تي، گذريل سال جولاءِ ۾، فيوچر آف لائف انسٽيٽيوٽ (FGI) جي سرپرستي هيٺ هڪ خط 170 تنظيمن ۽ 2464 ماڻهن پاران دستخط ڪيو ويو. 2019 جي شروعاتي مهينن ۾، FLI سان لاڳاپيل طبي سائنسدانن جو هڪ گروپ ٻيهر مصنوعي ذهانت (AI) ڪنٽرول ٿيل هٿيارن جي ترقي تي پابندي لڳائڻ لاءِ هڪ نئون خط طلب ڪيو.

فوجي "قاتل روبوٽس" جي ممڪن قانوني ضابطي تي گينيوو ۾ گذريل سال آگسٽ جي گڏيل قومن جي اجلاس ڪاميابي سان ختم ٿي وئي ... مشينون. ملڪن جو هڪ گروپ، بشمول آمريڪا، روس ۽ اسرائيل، انهن هٿيارن تي بين الاقوامي پابندي جي تعارف تي وڌيڪ ڪم کي روڪيو (ڪنهن ڪنوينشنل ويپنز جي استعمال جي پابندي يا پابندي بابت ڪنوينشن جو مسودو، CCW). اهو ڪو اتفاق نه آهي ته اهي ملڪ خودمختيار ۽ روبوٽ هٿيارن جي ترقي يافته سسٽم تي ڪم لاء مشهور آهن.

روس جنگي روبوٽس تي ڌيان ڏئي ٿو

صدر ولاديمير پوتن اڪثر ڪري فوجي AI سسٽم ۽ جنگي روبوٽس بابت چيو ويندو آهي:

-.

خود مختيار هٿيارن جي ترقي جي باري ۾ کليل ڳالهه ٻولهه. ان جي هٿياربند فوجن جي جنرل اسٽاف جي چيف، جنرل ويلري گيراسيموف، تازو فوجي نيوز ايجنسي Interfax-AVN کي ٻڌايو ته روبوٽس جو استعمال مستقبل جي جنگين جي مکيه خاصيتن مان هڪ هوندو. هن وڌيڪ چيو ته روس ڪوشش ڪري رهيو آهي جنگ جي ميدان کي مڪمل طور تي خودڪار ڪريو. ساڳيا تبصرا ڊپٽي وزيراعظم دمتري روگوزين ۽ دفاع واري وزير سرگئي شوگيو پاران ڪيا ويا. دفاع ۽ سيڪيورٽي تي فيڊريشن ڪائونسل ڪميٽي جي چيئرمين Viktor Bondarev چيو ته روس ترقي ڪرڻ جي ڪوشش ڪري رهيو آهي روزو ٽيڪنالاجيزاهو ڊرون نيٽ ورڪ کي هڪ واحد اداري طور ڪم ڪرڻ جي اجازت ڏيندو.

اها تعجب جي ڳالهه ناهي ته اسان کي ياد آهي ته پهرين ٽيلي ٽينڪ 30s ۾ سوويت يونين ۾ ترقي ڪئي وئي. اهي ٻئي عالمي جنگ جي شروعات ۾ استعمال ڪيا ويا. اڄ روس به ٺاهي رهيو آهي ٽينڪ روبوٽس وڌيڪ ۽ وڌيڪ خودمختيار بڻجي.

پوتن جي رياست تازو شام ڏانهن پنهنجو پاڻ موڪليو بي پائلٽ جنگي گاڏي Uran-9 (3). ڊوائيس زميني ڪنٽرول پوائنٽن سان رابطو وڃائي ڇڏيو، معطلي سسٽم سان مسئلا هئا، ۽ ان جي هٿيارن مڪمل طور تي ڪم نه ڪيو ۽ حرڪت واري هدفن کي نه ماريو. اهو تمام سنجيده آواز نٿو اچي، پر ڪيترن ئي شام جي مسح کي هڪ سٺو جنگي امتحان سمجهي ٿو جيڪو روسين کي مشين کي بهتر ڪرڻ جي اجازت ڏيندو.

Roscosmos هن سال آگسٽ تائين بين الاقوامي خلائي اسٽيشن ڏانهن ٻه روبوٽ موڪلڻ لاء هڪ ابتدائي منصوبي جي منظوري ڏني آهي. فيڊر (4) اڻ ڄاتل يونين ۾. لوڊ وانگر نه، پر. جيئن فلم RoboCop ۾، فيڊر هڪ هٿيار کڻندو آهي ۽ شوٽنگ جي مشق دوران خطرناڪ نشانو بڻائڻ جو مظاهرو ڪري ٿو.

سوال اهو آهي ته خلا ۾ هڪ روبوٽ هٿياربند ڇو هوندو؟ اتي شڪايتون آهن ته معاملو صرف زميني ايپليڪيشنن ۾ نه آهي. ان دوران ڌرتيءَ تي، روسي هٿيار ٺاهيندڙ ڪلاشنڪوف هڪ تصوير ڏيکاري غلام Igorekجيڪو، جيتوڻيڪ اهو تمام گهڻو کلڻ جو سبب بڻيو، اهو اشارو ڏئي ٿو ته ڪمپني سنجيده طور تي خودمختيار جنگي گاڏين تي ڪم ڪري رهي آهي. جولاءِ 2018 ۾، ڪلاشنڪوف اعلان ڪيو ته هو هڪ اهڙو هٿيار ٺاهي رهيو آهي جنهن کي هو استعمال ڪري ٿو ”مارڻ يا نه مارڻ“ جا فيصلا ڪرڻ لاءِ.

هن معلومات ۾ شامل ڪيو وڃي رپورٽون ته روسي بندوق بردار Digtyarev هڪ ننڍي ترقي ڪئي خودمختيار ٽانڪي Nerekht جيڪو خاموشيءَ سان پنهنجي ٽارگيٽ ڏانهن وڌي سگهي ٿو ۽ پوءِ طاقتور قوت سان ڌماڪو ڪري ٻين يا پوري عمارتن کي تباهه ڪري سگهي ٿو. اهڙي طرح ٽانڪي T14 Armata , روسي هٿياربند فوجن جو فخر، ممڪن ريموٽ ڪنٽرول ۽ اڻڄاتل ڊرائيونگ لاء ٺهيل هو. اسپوتنڪ جي دعويٰ آهي ته روسي فوجي انجنيئر ٽي-14 کي مڪمل طور تي خودمختيار هٿياربند گاڏي ٺاهڻ لاءِ ڪم ڪري رهيا آهن.

اعتراض واري هدايت

آمريڪي فوج پاڻ پنهنجي هٿيارن جي خودمختاري جي سطح تي واضح حد مقرر ڪئي آهي. 2012 ۾، يو ايس ڊپارٽمينٽ آف ڊفينس هدايتون 3000.09 جاري ڪيو، جنهن ۾ چيو ويو آهي ته انسانن کي هٿياربند روبوٽس جي عملن تي اعتراض ڪرڻ جو حق هجڻ گهرجي. (جيتوڻيڪ اتي ڪجھ استثنا ٿي سگھي ٿو). هي هدايت اثر ۾ رهي ٿو. پينٽاگون جي موجوده پاليسي اها آهي ته هٿيارن جي استعمال جو فيصلو ڪندڙ عنصر هميشه هڪ شخص هجڻ گهرجي، ۽ اهو ئي فيصلو هجڻ گهرجي. جنگ جي قانونن جي مطابق.

جيتوڻيڪ آمريڪن ڪيترن ئي ڏهاڪن کان اڏامندڙ، پريڊٽر، ريپر ۽ ٻيون ڪيتريون ئي سپر مشينون استعمال ڪري رهيا آهن، پر اهي نه خود مختيار ماڊل هئا ۽ نه آهن. اهي آپريٽرز طرفان ڪنٽرول ٿيل آهن دور دراز، ڪڏهن ڪڏهن ڪيترن ئي هزار ڪلوميٽرن جي فاصلي کان. هن قسم جي مشينن جي خودمختياري جي باري ۾ هڪ گرم بحث prototype جي پريميئر سان شروع ٿي. X-47B ڊرون (5)، جيڪو نه رڳو آزاديءَ سان اڏامندو هو، پر جهاز جي ڪيريئر مان به اُڏامي سگهندو هو، ان تي لينڊ ڪري سگهندو هو ۽ هوا ۾ ريفيول پڻ ڪندو هو. مطلب ته انساني مداخلت کان سواءِ گوليون يا بم ڪيرائڻ به آهي. بهرحال، پروجيڪٽ اڃا تائين جاچ ۽ جائزو هيٺ آهي.

5. هڪ آمريڪي جهاز جي ڪيريئر تي غير پائلٽ X-47B جا ٽيسٽ

2003 ۾، ڊپارٽمينٽ ڊپارٽمينٽ هڪ ننڍڙي ٽينڪ جهڙو روبوٽ سان تجربو شروع ڪيو. اسپوز هڪ مشين گن سان ليس. 2007ع ۾ کيس عراق موڪليو ويو. جڏهن ته، پروگرام ختم ٿي ويو جڏهن روبوٽ غلط طريقي سان هلڻ شروع ڪيو، پنهنجي رائفل کي غلط طور تي منتقل ڪيو. نتيجي طور، آمريڪي فوج ڪيترن ئي سالن تائين هٿياربند زميني روبوٽس تي تحقيق کي ڇڏي ڏنو.

ساڳئي وقت، آمريڪي فوج 20 ۾ 2014 ملين ڊالر کان 156 ۾ 2018 ملين ڊالر تائين آپريشن تي خرچ ڪيو آهي. 2019 ۾، هي بجيٽ اڳ ۾ ئي 327 ملين ڊالر تائين پهچي چڪو آهي. اهو صرف چند سالن ۾ 1823٪ جو مجموعي واڌارو آهي. ماهرن جو چوڻ آهي ته 2025ع تائين آمريڪي فوج جنگ جو ميدان بڻجي سگهي ٿي انسانن کان وڌيڪ روبوٽ سپاهي.

تازو، تمام گهڻو تڪرار پيدا ڪيو ويو آهي ۽ آمريڪي فوج پاران اعلان ڪيو ويو آهي ATLAS پروجيڪٽ () - خودڪار. ميڊيا ۾، هن کي پيش ڪيل هدايت 3000.09 جي خلاف ورزي قرار ڏنو ويو. بهرحال، آمريڪي فوج انڪار ڪري ٿي ۽ يقين ڏياريو آهي ته فيصلي واري چڪر مان هڪ شخص کي خارج ڪرڻ سوال کان ٻاهر آهي.

AI شارڪن ۽ عام ماڻهن کي سڃاڻي ٿو

بهرحال، خودمختيار هٿيارن جا محافظ نوان دليل آهن. پروفيسر رونالڊ آرڪن، جارجيا انسٽيٽيوٽ آف ٽيڪنالاجي ۾ هڪ روبوٽسٽ، پنهنجي اشاعت ۾ ٻڌائي ٿو ته جديد جنگ ۾، عام ماڻهن جي جاني نقصان کان بچڻ لاءِ ذهين هٿيار ضروري آهن، جيئن مشيني سکيا جا طريقا جنگي ۽ عام شهرين ۽ اهم ۽ غير اهم هدفن جي وچ ۾ فرق ڪرڻ ۾ مدد ڪري سگھن ٿا.

اهڙين AI صلاحيتن جو هڪ مثال آسٽريليا جي ساحل تي گشت ڪرڻ آهي. ڊرون لٹل ريپريونيورسٽي آف ٽيڪنالاجي سڊني پاران تيار ڪيل SharkSpotter سسٽم سان ليس. هي سسٽم پاڻمرادو پاڻي کي اسڪين ڪري ٿو شارک لاءِ ۽ آپريٽر کي خبردار ڪري ٿو جڏهن اهو ڪجهه غير محفوظ ڏسي ٿو. (6) اهو ماڻهن، ڊولفن، ٻيڙين، سرف بورڊن ۽ پاڻيءَ ۾ موجود شين جي سڃاڻپ ڪري سگهي ٿو ته جيئن انهن کي شارڪ کان ڌار ڪري سگهجي. اهو ڳولهي سگهي ٿو ۽ اٽڪل XNUMX مختلف نسلن کي اعلي درستگی سان سڃاڻي سگهي ٿو.

6. SharkSpotter سسٽم ۾ سڃاتل شارڪ

اهي جديد مشين سکيا جا طريقا 90 سيڪڙو کان وڌيڪ فضائي جاسوسي جي درستگي کي وڌائين ٿا. مقابلي لاءِ، هڪ انساني آپريٽر اهڙي صورتحال ۾ 20-30 سيڪڙو شين کي فضائي تصويرن ۾ صحيح طور تي سڃاڻي ٿو. ان کان علاوه، سڃاڻپ اڃا تائين هڪ الارم کان اڳ انسان طرفان تصديق ڪئي وئي آهي.

جنگ جي ميدان تي، آپريٽر، اسڪرين تي تصوير ڏسي، مشڪل سان اهو طئي ڪري سگهي ٿو ته ڇا زمين تي ماڻهو پنهنجن هٿن ۾ AK-47 سان ويڙهاڪ آهن يا مثال طور، هارين سان گڏ هارين. آرڪين نوٽ ڪري ٿو ته ماڻهو "ڏسندا آهن جيڪي اهي ڏسڻ چاهيندا آهن،" خاص طور تي دٻاء واري حالتن ۾. اهو اثر 1987 ۾ يو ايس ايس وينسنس پاران هڪ ايراني جهاز جي حادثاتي طور تي تباهه ڪرڻ ۾ مدد ڪئي. يقينن، هن جي راء ۾، AI-ڪنٽرول هٿيار موجوده "سمارٽ بم" کان بهتر هوندا، جيڪي حقيقت ۾ جذباتي نه آهن. گذريل آگسٽ ۾، هڪ سعودي ليزر گائيڊڊ ميزائل يمن ۾ اسڪول جي ٻارن سان ڀريل هڪ بس کي نشانو بڻايو، جنهن ۾ چاليهه ٻار مارجي ويا.

"جيڪڏهن هڪ اسڪول بس صحيح طور تي ليبل ٿيل آهي، ان کي هڪ خودمختيار نظام ۾ سڃاڻڻ نسبتا آسان ٿي سگهي ٿو،" مشهور ميڪنڪس ۾ آرڪن جو دليل آهي.

بهرحال، اهي دليل نه ٿا لڳي ته مهم ڪندڙن کي خودڪار قاتلن جي خلاف قائل ڪن. قاتل روبوٽس جي خطري کان علاوه، هڪ ٻي اهم صورتحال کي حساب ۾ رکڻ گهرجي. جيتوڻيڪ هڪ "سٺو" ۽ "توجهه وارو" سسٽم هيڪ ٿي سگهي ٿو ۽ تمام خراب ماڻهن طرفان ورتو وڃي ٿو. پوءِ فوجي سامان جي دفاع ۾ سڀ دليل پنهنجي قوت وڃائي ويهندا آهن.

تبصرو شامل ڪريو