خطرات جدی: چرا ایلان ماسک و دیگران خواستار توقف فوری ساخت هوش مصنوعی هستند؟

Elon Musk

Tesla and SpaceX Chief Executive Officer Elon Musk speaks at the SATELLITE Conference and Exhibition in Washington, Monday, March 9, 2020 (AP Photo/Susan Walsh) Credit: APP

اپلیکیشین رادیو اس بی اس را دریافت کنید

راه های دیگر شنیدن

آیا بشر توسط هوش مصنوعی در حال تکامل پرجمعیت‌ترو هوشمندتر از خودش منسوخ می‌شود؟ به همین دلیل است که ایلان ماسک و دیگران خواستار توقف توسعه سیستم‌های هوش مصنوعی قدرتمند هستند.


نکات مهم:
  • کارشناسان هوش مصنوعی خواستار توقف توسعه و ساخت سیستم‌های هوش مصنوعی به دلیل خطرات احتمالی برای جامعه شده اند.
  • سیستم هوش مصنوعی قدرتمند OpenAI GPT نگرانی‌هایی را در مورد امنیت ملی، اطلاعات نادرست و آموزش ایجاد کرده است.
  • انتشار ChatGPT باعث ایجاد یک مسابقه توسعه غیرقابل تنظیم هوش مصنوعی در بین شرکت های فناوری رقیب شده است.
ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت در نامه‌ای سرگشاده با اشاره به خطرات احتمالی برای جامعه، خواستار توقف شش ماهه توسعه و ساخت سیستم‌های قدرتمندتر از GPT-4 تازه راه‌اندازی شده توسط OpenAI هستند.

در اوایل این ماه، OpenAI تحت حمایت مایکروسافت، چهارمین نسخه از برنامه هوش مصنوعی GPT (مولد پیش‌آموزش‌دهنده تولیدی) خود را رونمایی کرد که کاربران را با درگیر کردن آن‌ها در مکالمه‌ای شبیه انسان، آهنگسازی و خلاصه‌سازی اسناد طولانی شگفت‌زده کرده است.

در نامه ای که توسط مؤسسه Future of Life منتشر شده است، آمده است: «سیستم های قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.»


بر اساس دفتر ثبت شفافیت اتحادیه اروپا، این موسسه غیرانتفاعی ابتدا توسط بنیاد ماسک سرمایه‌گذاری شده، و بعدا گروهی مستقر در لندن به نام Founders Pledge و بنیاد جامعه Silicon Valley تامین مالی شده است.

ماسک در اوایل این ماه گفت: "هوش مصنوعی من را دچار فشار و اضطراب می‌کند." او یکی از بنیانگذاران OpenAI رهبر این صنعت است و شرکت خودروساز او تسلا نیز از هوش مصنوعی برای سیستم خودکار این خودرو استفاده می کند.


ماسک که از تلاش‌ها برای تنظیم سیستم خودکار تسلا ابراز ناامیدی کرده است، اکنون به دنبال یک مرجع نظارتی است تا اطمینان حاصل کند که توسعه هوش مصنوعی در خدمت منافع عمومی است.

جیمز گریملمن، استاد حقوق دیجیتالی و اطلاعاتی در دانشگاه کرنل، می گوید: «این کار شدیدا ریاکارانه‌ای است که ایلان ماسک کرده با توجه به اینکه تسلا در برابر مسئولیت پذیری هوش مصنوعی معیوب در خودروهای خودکارش مقابله کرده است.»

او ادامه می‌دهد: «یک توقف ایده خوبی است، اما نامه مبهم است و مشکلات نظارتی را جدی نمی‌گیرد.»

تسلا در ماه گذشته مجبور شد بیش از ۳۶۲ هزار خودروی آمریکایی را برای به‌روزرسانی نرم‌افزار فرابخواند، زیرا قانونگذاران ایالات متحده اعلام کردند که سیستم کمک راننده آن ممکن است باعث تصادف شود، و ماسک در توییتی نوشت که کلمه فراخوان برای به‌روزرسانی نرم‌افزار هوایی «نابهنگام» است و اشتباه است!

"پرجمعیت، باهوش، غیرعادی"

OpenAI بلافاصله به درخواست اظهارنظر در مورد نامه سرگشاده پاسخ نداد، نامه‌ای که خواستار توقف توسعه هوش مصنوعی پیشرفته شده تا زمانی که پروتکل‌های امنیتی مشترک توسط کارشناسان مستقل ایجاد شود و از توسعه‌دهندگان می‌خواست با سیاست‌گذاران در زمینه حاکمیت همکاری کنند.

"آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟... آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت از نظر تعداد، پیشی گرفته و جایگزین ما شوند؟" در این نامه آمده است: «چنین تصمیماتی نباید به رهبران فناوری غیرمنتخب واگذار شود».

این نامه توسط بیش از هزار نفر از جمله ماسک امضا شده است. سام آلتمن، مدیر اجرایی OpenAI، در میان امضاکنندگان این نامه نبود. ساندار پیچای و ساتیا نادلا، مدیران عامل آلفابت و مایکروسافت نیز از جمله امضاکنندگان این قرارداد نبودند.

امضاکنندگان مشترک شامل عماد موستاک، مدیر عامل Stability AI، محققان شرکت DeepMind متعلق به آلفابت، و یوشوا بنجیو، از شخصیت‌های مهم هوش مصنوعی، که اغلب به عنوان یکی از "پدرخوانده‌های هوش مصنوعی" از آنها یاد می شود، و استوارت راسل، از پیشگامان تحقیقات در این زمینه بودند.

این نگرانی ها در حالی مطرح می شود که ChatGPT توجه قانونگذاران ایالات متحده را با سؤالاتی در مورد تأثیر آن بر امنیت ملی و آموزش به خود جلب کرده است. نیروی پلیس اتحادیه اروپا یوروپل روز دوشنبه در مورد سوء استفاده احتمالی از این سیستم در تلاش‌های فیشینگ، اطلاعات نادرست و جرایم سایبری هشدار داد.

در همین حال، دولت بریتانیا از پیشنهادهایی برای یک چارچوب نظارتی «تطبیقی» در مورد هوش مصنوعی پرده برداری کرد.
 

مسابقه هوش مصنوعی

گری مارکوس، استاد دانشگاه نیویورک که نامه را امضا کرده است، گفت: «نامه کامل نیست، اما روح آن درست است: ما باید سرعت خود را کم کنیم تا زمانی که پیامدهای آن را بهتر درک کنیم.»

بازیگران بزرگ به طور فزاینده‌ای در مورد کاری که انجام می‌دهند مخفی می‌شوند، که دفاع از جامعه را در برابر هر آسیب احتمالی دشوار می‌کند.»

از زمان انتشار ChatGPT OpenAI در سال گذشته، رقبا تلاش دارند تا توسعه مدل‌های بزرگ زبانی مشابه را تسریع بخشند و شرکت‌هایی از جمله Alphabet Inc در حال رقابت برای ارتقای محصولات خود در حوزه هوش مصنوعی هستند.

سرمایه گذاران نیز که نگران تکیه بر یک شرکت واحد هستند، به رقبای OpenAI خوشامد می‌گویند.

مایکروسافت از اظهار نظر در مورد نامه خودداری کرد و آلفابت به تماس ها و ایمیل ها برای اظهار نظر پاسخ نداد.

سورش ونکاتاسوبرامانیان، استاد دانشگاه براون و دستیار سابق دفتر سیاست علم و فناوری در کاخ سفید گفت: «قدرت زیادی برای توسعه این سیستم‌ها دائماً در دست شرکت‌های معدودی است که منابع لازم برای انجام آن را دارند. 

این مدل‌ها این‌گونه هستند: ساخت آنها سخت و دموکراتیزه کردن آنها هم سخت است».

همرسانی کنید