ایلان ماسک و جمع بسیاری از اندیشنمدان، کارآفرینان در نامهای سرگشاده که قابل امضا است و تا این لحظه ۱۱۸۷ نفر آن را امضا کرده اند ودر حال گسترش است از تمامی آزمایشگاه های هوش مصنوعی بخصوص از openai خالق Chat-GPT خواسته اند ماشین های هوش مصنوعی را برای مدت شش ماه خاموش کنند آنها معتقدند هوش مصنوعی با این روند تبدیل به هیولایی خواهد شد که کنترل آن از دست سازندگانش نیز خارج خواهد شد. در این نامه بی سابقه از دولت ها خواسته شده در خصوص این توقف مداخله کنند. متن این نامه را که Chat-GPT برایمان ترجمه کرده بدون ویرایش منتقل می کنیم چون معتقدیم باید در کنار ضعف ها قدرت این ابر هوش مصنوعی سنجیده شود. نسخه ای که ما از آن استفاده می کنیم نسخه اولیه است و از نسخه پیش رفته 4 Chat-GPT استفاده نشده است.
متن کامل نامه:
ما از تمامی آزمایشگاههای هوش مصنوعی خواستار متوقف کردن آموزش سیستمهای هوش مصنوعی با توانایی بیشتر از GPT-4 به مدت حداقل ۶ ماه هستیم.
همانطور که تحقیقات گسترده ای نشان میدهد و توسط برترین آزمایشگاههای هوش مصنوعی به اقرار رسیده است، سیستمهای هوش مصنوعی با هوش رقابتی انسان، می توانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند. همانطور که در اصول هوش مصنوعی اسیلومار پذیرفته شده است، هوش مصنوعی پیشرفته می تواند تغییرات عمیقی را در تاریخ زندگی روی زمین ایجاد کند و باید با مدیریت و برنامه ریزی با اهمیت و منابع متناسب برای آن برنامه ریزی شود. متاسفانه، در حال حاضر این سطح برنامه ریزی و مدیریت اتفاق نمی افتد، هر چند که در چندین ماه گذشته، آزمایشگاههای هوش مصنوعی در یک مسابقه بیکنترل برای توسعه و ارائه ذهنهای دیجیتالی قدرتمند تلاش کردهاند که هیچ کس – حتی خود سازندگان آنها – نمیتوانند آنها را به طور قابل پیشبینی یا قابل کنترل درک کنند یا کنترل کنند.
سیستمهای هوش مصنوعی معاصر در حال حاضر در کارهای عمومی رقابت با انسان به سطحی رسیدهاند که باید خودمان را بپرسیم: آیا باید به ماشینها اجازه دهیم با پراپاگاندا و دروغ، کانالهای اطلاعاتی ما را سیلاب کنند؟ آیا باید تمامی شغلها را حتی کارهای پربار را هم به صورت خودکار انجام دهیم؟ آیا باید ذهنی غیرانسانی توسعه دهیم که در آینده ممکن است به تعداد، هوشی و جایگاه بیشتری نسبت به ما برسند و ما را منسوخ کرده و جایگزین کنند؟ آیا باید خطر از دست دادن کنترل بر تمدن ما را به خطر بیاندازیم؟
این تصمیمات نباید به رهبران فناوری بدون انتخابات منتقل شوند. سیستمهای هوشمند قدرتمند باید فقط زمانی توسعه داده شوند که مطمئن شویم اثرات آنها مثبت است و خطرات آنها قابل مدیریت هستند. این اطمینان باید با توجه به شدت تأثیرات ممکن سیستم، به خوبی توجیه شود و با بزرگ شدن اثرات پتانسیلی یک سیستم، باید افزایش یابد. بیانیه اخیر OpenAI درباره هوش مصنوعی عمومی، میگوید “در یک نقطهای ممکن است قبل از شروع به آموزش سیستمهای آتی، بررسی مستقل مهم باشد و برای تلاشهای پیشرفتهتر، توافق برای محدود کردن نرخ رشد محاسبات استفاده شده برای ایجاد مدلهای جدید، ضروری باشد.” ما هم موافقیم. این نقطه الان است.
بنابراین، ما از همه آزمایشگاه های هوش مصنوعی خواستاریم که بلافاصله برای حداقل 6 ماه، آموزش سیستم های هوشمندی که قدرتمندتر از GPT-4 هستند را متوقف کنند. این توقف باید عمومی و قابل اثبات باشد و شامل همه عوامل کلیدی باشد. اگر چنین توقفی به سرعت اعمال نشود، دولت ها باید دخالت کنند و مرحله تعلیق را موقتا اعمال کنند.
آزمایشگاه های هوش مصنوعی و کارشناسان مستقل باید از این توقف استفاده کنند تا به صورت مشترک پروتکل های ایمنی مشترکی برای طراحی و توسعه هوش مصنوعی پیشرفته توسعه داده و اجرا کنند که توسط کارشناسان مستقل اعمال نظارت و بازرسی صورت گیرد.
این پروتکل ها باید اطمینان دهنده باشند که سیستم هایی که به آنها وفاداری می کنند، بدون تردید ایمن هستند. این به معنای توقف کلی توسعه هوش مصنوعی نیست، تنها یک قدم عقب از رقابت خطرناک برای ایجاد مدل هایی با قابلیت های اضطراری و پیش بینی نشدنی است.
تحقیقات و توسعه هوش مصنوعی باید بر روی ایجاد سیستم های امروزی، پیشرفته، قدرتمند و دارای حالت کارایی بیشتر، امن، قابل تفسیر، شفاف، قوی، همراه با ارزشهای جامعه و مورد اعتماد و وفاداری تمرکز یابد. به علاوه، توسعه دهندگان هوش مصنوعی باید با سیاستگذاران همکاری کرده و سیستم های حکومتی هوش مصنوعی قوی را با سرعت بسیار بالا توسعه دهند.
این سیستم ها شامل مواردی مانند: مقامات نظارت و نظارت جدید و قابل اعتماد به هوش مصنوعی، نظارت و پیگیری سیستم های هوش مصنوعی قدرتمند و محاسباتی بزرگ، سیستم های تبیین منشا و علامتگذاری برای کمک به تمیز دادن حقیقت از مصنوعی و پیگیری نشت مدل، یک اکوسیستم بازرسی و گواهینامه قوی، مسئولیت مالی برای صدمات ناشی از هوش مصنوعی، پشتیبانی قوی از تحقیقات تخصصی ایمنی هوش مصنوعی و نهادهای دارای منابع کافی برای مقابله با اختلالات اقتصادی و سیاسی شدید (به ویژه به دموکراسی) که هوش مصنوعی ایجاد خواهد کرد، باشند.
انسانیت میتواند با هوش مصنوعی آینده روشن و موفقی داشته باشد. پس از موفقیت در ایجاد سیستمهای هوشمند، میتوانیم حالا یک “تابستان هوش مصنوعی” را تجربه کنیم که در آن مزایای آن را برداشت کنیم، سیستمها را به منظور بهرهمندی همهی افراد بهبود دهیم و به جامعه فرصتی برای سازگار شدن بدهیم. جامعه در موارد دیگری که بر تأثیرات ناسالم بر جامعه میتواند داشته باشد، توانسته است مرحلهای از توسعه فناوری را متوقف کند. میتوانیم همین کار را در اینجا انجام دهیم. بیایید یک تابستان طولانی از هوش مصنوعی را لذت ببریم، و به ناامیدی و گرفتاری ناشی از پیش بینی نشده، بیآماده وارد چالش بعدی نشویم.
Elon Musk and researchers ask for pause on ‘dangerous race’ to improve AI