Image processed by CodeCarvings Piczard ### FREE Community Edition ### on 2015-12-13 18:02:35Z | http://piczard.com | http://codecarvings.com

طرح یک میلیارد دلاری ایلان ماسک برای مقابله با خطرات هوش مصنوعی/خطرناک‌تر از بمب هسته‌ای

ایلان ماسک بنیانگذار شرکت تسلا و اسپیس‌ایکس که عقیده دارد هوش مصنوعی می‌تواند خطرناک‌تر از بمب هسته‌ای باشد قصد دارد بخش بزرگی از سرمایه خود را برای مقابله با خطرات هوش‌مصنوعی اختصاص دهد.
 ايلان ماسك همواره يكي از منتقدان دو آتشه هوش مصنوعي بوده‌ و حتي آن را خطرناك‌تر از بمب هسته‌اي دانسته است. اما اكنون به يكي از نام‌هاي بزرگ جهان فناوري تبديل شده كه قصد تامين سرمايه مركز جديد مطالعات هوش مصنوعي را دارد.

هدف مركز OpenAI كه چند روزي از افتتاح آن نمي‌گذرد،‌ ايجاد ايمني در هوش مصنوعي و اشتراك‌گذاري مطالعاتش در سطحي گسترده‌است. هوش مصنوعي توسعه يافته در اين مركز به صورت مطلق در راستاي منافع انساني خواهد بود و اين مركز مي‌تواند تصميم بگيرد بخشي از مطالعاتش را به دلايل امنيتي محرمانه نگه دارد.

پشتيبانان اين مركز جديد كه ماسك يكي از آنها است،‌ مجموعا يك ميليارد دلار را براي اجراي اين پروژه اختصاص داده‌اند. اين مركز مطالعات خود را با 9 پروژه تمام وقت آغاز خواهد كرد اما حجم اين پروژه‌ها در طول سال دو برابر خواهد شد. مديريت تيم محققان اين مركز را دانشمند مشهور هوش مصنوعي و كارمند سابق شركت گوگل، ايليا سوتسكي‌ور به عهده خواهد داشت.

بسياري از شركت‌هاي بزرگ فناوري از جمله فيس‌بوك، گوگل، مايكروسافت و اپل درحال سرمايه‌گذاري‌هاي سنگين در زمينه هوش مصنوعي هستند. فناوري هوش مصنوعي هم‌اكنون در بسياري از محصولات كاربرد دارد، براي مثال ردپاي آن را مي‌توان در ابزار عكس فيس‌بوك و محصولات شركت تسلا مشاهده كرد.

اگرچه اين شركت‌ها بخشي از مطالعات خود را آشكارا در اختيار همگان قرار مي‌دهند، اين حقيقت كه در حين مطالعات ابزارهايي ابداع مي‌شوند كه هدفي جز درآمدزايي ندارند، موجب نگراني بسياري از دست‌اندركاران دانش و فناوري شده‌است.

ماسك پيش از اين هوش مصنوعي را به عنوان بزرگترين خطر تهديد كننده بشريت توصيف كرده‌بود. وي در اوايل سال 2015 با همراهي استفان هاوكينگ، بيل‌گيتس و ديگر متفكران برجسته دانش و فناوري جهان زنگ هشدار را درباره خطر بالاي هوش مصنوعي براي بشريت به صدا درآورد.

اگرچه ماسك يكي از اصلي‌ترين سرمايه‌گذاران شركت‌هاي هوش مصنوعي مانند Deep Mind و Vicarious بوده‌است،‌ اما مي‌گويد اين‌ كار را براي نظارت بر فناوري هوش مصنوعي انجام داده‌آست.

تيم پروژه OpenAI مي‌گويند درك اينكه هوش مصنوعي هم‌سطح انسان تا چه اندازه مي‌تواند براي بشريت مفيد باشد بسيار دشوار است، اما به همان اندازه متصور شدن آسيب‌هاي ناشي از استفاده نادرست از اين فناوري كار دشواري است.

 

 




پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد.

* Copy This Password *

* Type Or Paste Password Here *