« صفات نیکو در کلام علی علیه السلام | اخلاص رویش دارد » |
ربات های قاتل نگرانی جدید سازمان ملل
تحقیقات دانشمندان دانشگاه بوفالو نشان داده که عجله برای ممنوع کردن و بد جلوه دادن سلاحهای خودمختار یا «رباتهای قاتل» راهکاری موقتی است و مشکل اصلی، ورود جامعه به موقعیتی است که سیستمهایی مانند این رباتها در آن ممکن میشوند.
رباتهای قاتل در مرکز داستانهای فیلمهایی مانند ترمیناتور یا جنگ ستارگان قرار دارند، اما ایده عملکرد خودکار سلاحهای خودمختار نسبت به سازمانهای بشری تنها در اختیار نویسندگان داستانهای علمی تخیلی نیست.
در حال حاضر بودجهای از پنتاگون و گروهی از سازمانهای غیردولتی مانند سازمان دیدهبان حقوق بشر در حال کار برای متوقف ساختن توسعه این نوع رباتها هستند.
اداره و کنترل سیستمهایی مانند رباتهای قاتل باید فراتر از محصولات نهایی صورت بگیرد.
به گفته محققان، باید اصطلاح ربات قاتل به تکنیکهای فرهنگی کوچکتر تغییر یابد. محققان باید به بررسی تاریخچه یادگیری رباتها، شناسایی الگو و مدلسازی پیشبینی و چگونه درک شدن این مفاهیم توسط این سیستمها بپردازند. با انجام این بررسیها میتوان به سوالاتی که عصر آینده اتوماسیون، هوش مصنوعی و رباتیک را توصیف میکنند، پاسخ داد.
تکنیکهای فرهنگی، اصولی هستند که به توسعه تحولات علمی منجر میشوند. این تکنیکها که در اصل به کشاورزی مرتبط هستند، زمانی برای کشت و فرآیندها، کارگران و اقدامات لازم برای ارائه زمین مولد و قابل سکونت استفاده میشدند. اما در نظریه رسانه، رویکرد تکنیکهای فرهنگی در بخشهای مختلف کار و زنجیرههای متعدد تکاملی اندیشه، فناوری، تصور، تولید دانش و چگونگی تبدیل این شیوهها به سیستمهای واقعی، محصولات و مفاهیم مورد توجه است.
شاید در حال حاضر، صحبت در مورد رباتهای قاتل به نظر تخیلی باشد اما سازمانها در سراسر جهان در حال کار برای ساخت سیستمهای خودکار و جلوگیری از تبدیل آنها به رباتهای قاتل هستند.
پنتاگون بودجهای به میزان ۱۸ میلیارد دلار برای ساخت سیستمها و فناوریهایی اختصاص داده که میتوانند پایه سلاحهای کاملا خودکار را تشکیل بدهند که بطور خودمختار به جستجو، شناسایی و حمله به دشمن خواهند پرداخت.
نخستین اعتراض دیپلماتیک در این حوزه بالقوه جنگ ماشینی در سال ۲۰۱۲ انجام شد که در آن گروهی از سازمانهای غیردولتی یک کمپین به نام “رباتهای قاتل را متوقف کنید” را برای جلوگیری از توسعه چنین سلاحهایی تشکیل دادند. اما محققان معتقدند که در مورد ترکیببندی تهدید واقعی باید تجدید نظر کرد.
تصور کنید هر دو سیتمهای نرمافزاری و اخلاقی بر اساس قوانین خاص عمل کنند. باید در نظر گرفت که آیا میتوان سیستمهای اخلاقی مبتنی بر قوانین را در نرمافزار کدگذاری کرد؟
خودروهای خودران بر اساس قوانین جاده عمل میکنند اما سلاحهای خودمختار باید بتوانند بین دوست و دشمن تمایز قائل شوند و مهمتر اینکه بدانند چه زمانی ممکن است آنها به نقش دیگری در بیایند.
محققان میگویند: ما نباید بر آنچه از لحاظ فنی ممکن است، تمرکز کنیم، بلکه باید انگیزههای ایدئولوژیکی، فرهنگی و سیاسی که این توسعههای فنی را هدایت میکنند، بررسی کنیم.۱
نگرانی ها از تبدیل شدن «روباتهای قاتل» به سلاح های غالب در آینده، سازمان ملل را وادار کرده است ماه مه اولین کنفرانس بین المللی را در باره این روباتها با حضور سازمانهای مدافع حقوق بشر برگزار کند.
احتمال فراگیر شدن استفاده از روباتهای قاتل، نگرانیهای جدی برای سازمان ملل به وجود آورده و این سازمان را به برگزاری کنفرانسی با حضور نمایندگان سازمانهای حقوق بشری در ژنو واداشته است.
«روباتهای قاتل» شیوه جدیدی برای جنگ هستند که توجه کشورهای صنعتی جهان را به خود جلب کرده اند. در حال حاضر ژاپن، چین، کره جنوبی، آمریکا، اسرائیل ، انگلیس و روسیه از پهپادها برای عملیات شناسایی استفاده می کنند.
این روباتها می توانند به صورت خودکار هدفهایی را در یک منطقه هدف قرار دهند.
بونی دوچرتی Bonnie Docherty از مسئولان سازمان دیده بان حقوق بشر در باره این پهپادهای خود کار می گوید: مثلا پهپاد ایکس- 40 (X-40B) که در آمریکا ساخته شده است می تواند به طور خودکار در آسمان سوخت گیری کند، روی ناو هواپیما بر فرود آید و سلاح حمل کند. این پهپاد خودش پرواز می کند و می تواند به صورت خودکار اهدافی را شناسایی و بدون مداخله بشری از سلاح استفاده کند».
اما پرسش اینجاست: اگر کار شناسایی خوب انجام نشود یا پهپاد هک شود، چه باید کرد؟
نوئل شارکی Noel Sharkey، استاد روباتیک دانشگاه شفیلد می پرسد:« اگر روبات اشتباه کند، مسئول چه کسی است؟ واضح است که روبات مسئول نیست، اما آیا ارتشی که تصمیم گرفته از آن استفاده کند مسئول است یا کسی که آن را ساخته و یا کسی که آن را برنامه ریزی کرده است؟»
به گفته دیده بان حقوق بشر خلاء حقوقی در این زمینه، بنیان زندگی بشر را بر اساس اصل کرامت انسانی تهدید می کند. برای همین دیده بان حقوق بشر پویشی را در سازمان ملل برای ممنوعیت استفاده از روباتهای قاتل آغاز کرده است.۲
۱_ دیده شده در. https://www.tasnimnews.com/fa/news/1395/08/21/1237769/ربات-های-قاتل-در-راهند
۲_ دیده شده در. http://www.irinn.ir/news/216367/رباتهای-قاتل؛-نگرانی-جدید-سازمان-ملل ۲۷ / ۹ / ۹۵
فرم در حال بارگذاری ...