« صفات نیکو در کلام علی علیه السلاماخلاص رویش دارد »

ربات های قاتل نگرانی جدید سازمان ملل

تحقیقات دانشمندان دانشگاه بوفالو نشان داده که عجله برای ممنوع کردن و بد جلوه دادن سلاحهای خودمختار یا «ربات‌های قاتل» راهکاری موقتی است و مشکل اصلی، ورود جامعه به موقعیتی است که سیستم‌هایی مانند این ربات‌ها در آن ممکن می‌شوند.

 


 

ربات‌های قاتل در مرکز داستان‌های فیلم‌هایی مانند ترمیناتور یا جنگ ستارگان قرار دارند، اما ایده عملکرد خودکار سلاح‌های خودمختار نسبت به سازمان‌های بشری تنها در اختیار نویسندگان داستان‌های علمی تخیلی نیست.


در حال حاضر بودجه‌ای از پنتاگون و گروهی از سازمان‌های غیردولتی مانند سازمان دیده‌بان حقوق بشر در حال کار برای متوقف ساختن توسعه این نوع ربات‌ها هستند.

اداره و کنترل سیستم‌هایی مانند ربات‌های قاتل باید فراتر از محصولات نهایی صورت بگیرد.


به گفته محققان،‌ باید اصطلاح ربات قاتل به تکنیک‌های فرهنگی کوچکتر تغییر یابد. محققان باید به بررسی تاریخچه یادگیری ربات‌ها، شناسایی الگو و مدلسازی پیش‌بینی و چگونه درک شدن این مفاهیم توسط این سیستم‌ها بپردازند. با انجام این بررسی‌ها می‌توان به سوالاتی که عصر آینده اتوماسیون، هوش مصنوعی و رباتیک را توصیف می‌کنند، پاسخ داد.


تکنیک‌های فرهنگی، اصولی هستند که به توسعه تحولات علمی منجر می‌شوند. این تکنیک‌ها که در اصل به کشاورزی مرتبط هستند، زمانی برای کشت و فرآیندها، کارگران و اقدامات لازم برای ارائه زمین مولد و قابل سکونت استفاده می‌شدند. اما در نظریه رسانه، رویکرد تکنیک‌های فرهنگی در بخش‌های مختلف کار و زنجیره‌های متعدد تکاملی اندیشه، فناوری، تصور، تولید دانش و چگونگی تبدیل این شیوه‌ها به سیستم‌های واقعی، محصولات و مفاهیم مورد توجه است.


شاید در حال حاضر، صحبت ‌در مورد ربات‌های قاتل به نظر تخیلی باشد اما سازمان‌ها در سراسر جهان در حال کار برای ساخت سیستم‌های خودکار و جلوگیری از تبدیل آن‌ها به ربات‌های قاتل هستند.


پنتاگون بودجه‌ای به میزان ۱۸ میلیارد دلار برای ساخت سیستم‌ها و فناوری‌هایی اختصاص داده که می‌توانند پایه سلاح‌های کاملا خودکار را تشکیل بدهند که بطور خودمختار به جستجو، شناسایی و حمله به دشمن خواهند پرداخت.


نخستین اعتراض دیپلماتیک در این حوزه بالقوه جنگ ماشینی در سال ۲۰۱۲ انجام شد که در آن گروهی از سازمان‌های غیردولتی یک کمپین به نام “ربات‌های قاتل را متوقف کنید” را برای جلوگیری از توسعه چنین سلاح‌هایی تشکیل دادند. اما محققان معتقدند که در مورد ترکیب‌بندی تهدید واقعی باید تجدید نظر کرد.


تصور کنید هر دو سیتم‌های نرم‌افزاری و اخلاقی بر اساس قوانین خاص عمل کنند. باید در نظر گرفت که آیا می‌توان سیستم‌های اخلاقی مبتنی بر قوانین را در نرم‌افزار کدگذاری کرد؟


خودروهای خودران بر اساس قوانین جاده عمل می‌کنند اما سلاح‌های خودمختار باید بتوانند بین دوست و دشمن تمایز قائل شوند و مهمتر اینکه بدانند چه زمانی ممکن است آن‌ها به نقش دیگری در بیایند.

محققان می‌گویند: ما نباید بر آنچه از لحاظ فنی ممکن است، تمرکز کنیم، بلکه باید انگیزه‌های ایدئولوژیکی، فرهنگی و سیاسی که این توسعه‌های فنی را هدایت می‌کنند، بررسی کنیم.۱


نگرانی ها از تبدیل شدن «روباتهای قاتل» به سلاح های غالب در آینده، سازمان ملل را وادار کرده است ماه مه اولین کنفرانس بین المللی را در باره این روباتها با حضور سازمانهای مدافع حقوق بشر برگزار کند.


 احتمال فراگیر شدن استفاده از روباتهای قاتل،  نگرانیهای جدی برای سازمان ملل به وجود آورده و این سازمان را به برگزاری کنفرانسی  با حضور نمایندگان سازمانهای حقوق بشری در ژنو واداشته است.


«روباتهای قاتل» شیوه جدیدی برای  جنگ هستند که توجه  کشورهای صنعتی جهان را به خود جلب کرده اند. در حال حاضر ژاپن، چین، کره جنوبی، آمریکا، اسرائیل ، انگلیس و روسیه  از پهپادها برای عملیات شناسایی استفاده می کنند.

این روباتها می توانند به صورت خودکار هدفهایی را در یک منطقه هدف قرار دهند.


بونی دوچرتی  Bonnie Docherty از مسئولان سازمان دیده بان  حقوق بشر در باره این پهپادهای خود کار می گوید: مثلا پهپاد ایکس- 40 (X-40B) که در آمریکا ساخته شده است می تواند به طور خودکار در آسمان سوخت گیری کند،  روی ناو هواپیما بر فرود آید و سلاح حمل کند. این پهپاد خودش پرواز می کند و می تواند به صورت خودکار اهدافی را شناسایی  و بدون مداخله بشری از سلاح استفاده کند».


اما پرسش اینجاست: اگر کار شناسایی خوب انجام نشود یا پهپاد هک شود، چه باید کرد؟

 

نوئل شارکی Noel Sharkey، استاد روباتیک دانشگاه شفیلد می پرسد:« اگر روبات اشتباه کند، مسئول چه کسی است؟ واضح است که روبات مسئول نیست، اما آیا ارتشی که تصمیم گرفته از آن استفاده کند مسئول است یا کسی که آن را ساخته و یا کسی که آن را برنامه ریزی  کرده است؟»


به گفته دیده بان حقوق بشر  خلاء حقوقی در این زمینه،   بنیان  زندگی بشر را بر اساس اصل کرامت  انسانی   تهدید می کند. برای همین دیده بان حقوق بشر پویشی را  در سازمان ملل برای ممنوعیت استفاده از  روباتهای قاتل آغاز کرده است.۲

 

 

۱_ دیده شده در.  https://www.tasnimnews.com/fa/news/1395/08/21/1237769/ربات-های-قاتل-در-راهند
۲_ دیده شده در. http://www.irinn.ir/news/216367/رباتهای-قاتل؛-نگرانی-جدید-سازمان-ملل   ۲۷ / ۹ / ۹۵ 

 

   یکشنبه 28 آذر 1395


فرم در حال بارگذاری ...

جستجو
آمار وبلاگ ها
  • امروز: 333
  • دیروز:
  • 7 روز قبل: 6788
  • 1 ماه قبل: 42103
  • کل بازدیدها: 883148
رتبه وبلاگ