killer robots

روبات های قاتل را قبل از اینکه فراگیر شوند متوقف کنید

چندین دانشمند هشدار دادند که به احتمال قریب به یقین، مسابقه تسلیحاتی جهانی برای ساخت سلاح های خودکار مبتنی بر هوش مصنوعی رخ خواهد داد مگر اینکه ملت ها مانع توسعه چنین سلاح هایی شوند.

الن موسک، میلیاردر صاحب شرکت استفان هاوکینگ، فیزیکدان معروف و سایر شخصیت های فنی، نامه ای سرگشاده نوشته و نسبت به آغاز مسابقه تسلیحاتی فناوری هوش مصنوعی در جهان هشدار داده و بیان کرده اند که این اتفاق خواهد افتاد مگر اینکه سازمان ملل متحد از ممنوعیت سلاح هایی که انسان کنترلی بر روی آنها ندارد دفاع کند.

این نامه که توسط سازمان آینده حیات منتشر شده است، دیروز (27 جولای) در کنفرانس بین المللی هوش مصنوعی در بوینس آیرس، آرژانتین، ارائه شد.

در این نامه با اشاره به سلاح های خودکار آمده است، “سئوال کلیدی برای انسان امروز این است که آیا مسابقه تسلیحات جهانی را آغاز کند یا از آن جلوگیری کند. اگر هر قدرت نظامی به سمت توسعه این سلاح ها پیش رود، مسابقه تسلیحاتی جهانی اجتناب ناپذیر بوده و پایان این مسیر فناورانه مشخص است: سلاح های خودکار در آینده، جای کلاشینکف را خواهند گرفت.”

امضاکننده های این نامه می گویند که خطر این سلاح ها بسیار فراتر از سلاح های هسته ای خواهد بود.

پیشرفت ماشین ها

امروزه رفته رفته بر تعداد کارهای انسانی که توسط ربات ها انجام می شود افزوده می شود. ورود اجتناب ناپذیر ماشین ها به زندگی هم چشم انداز غیرعملی از آینده را پشت سر گذاشته و هم چشم انداز مکاشفاتی را مواردی که تهدیدی برای انسان به شمار می روند در فیلم های علمی-تخیلی همچون “ماتریس” و “2001” به تصویر کشیده شده اند.

اما تمام این ترس ها در سینما به نمایش در نمی آیند. در حقیقت، خود محققان هوش مصنوعی از نحوه توسعه نوآوری ها در این حوزه ابراز نگرانی کرده اند. این فناوری طی چند سال می تواند به سلاح های هوش مصنوعی خودکار-همچون هواپیماهای بدون سرنشین که می توانند با استفاده از یک الگوریتم تشخیص چهره، دست یابد.

در این نامه آمده است که اگرچه جنگنده های بدون سرنشین می توانند اتفاقات میدان جنگ را محدود کند، اما این روبات های خودکار نیز می توانند در وهله اول، آستانه آغاز کشمکش ها را پایین بیاورند.

بعلاوه، چنین سلاح های خودکاری می توانند در اختیار هر قدرت نظامی در روی زمین قرار داشته باشند، زیرا ماشین های کشتار مبتنی بر هوش مصنوعی نیازی به مواد پرهزینه و کمیاب ندارند. طولی نمی کشد که قاتلان، تروریست ها و سایر خرابکاران می توانند آنها را در بازار سیاه خریداری کرده و برای اهداف ناشایست خود از آنها استفاده کنند.

در این نامه همچنین بیان شده است،: “سلاح های خودکار برای کاهایی همچون قتل، ناآرام سازی کشورها، مطیع کردن جمعیت و کشتار انتخابی یک گروه قومی خاص کارایی دارند. بنابراین، ما معتقدیم که مسابقه تسلیحات نظامی هوش مصنوعی برای بشریت سودی نخواهد داشت.”

این اولین باری نیست که شخصیت های علمی و فنی درباره خطرات هوش مصنوعی هشدار می دهند. در سال 2014، هاوکینگ اظهار داشت که توسعه کامل هوش مصنوعی می تواند پایان نسل بشر را رقم بزند. هم هاوکینگ و هم ماسک، در ماه ژانویه نامه یک سازمان را امضا کردند که هشدار می داد هوش مصنوعی خطرات زیادی دارد مگر اینکه تضمین شود سیستم های هوش مصنوعی همان کاری را انجام خواهند دا که از آنها خواسته می شود انجام دهند.

 

منبع: شفاف نیوز

 




پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد.

* Copy This Password *

* Type Or Paste Password Here *