آزمایشات بزرگ هوش مصنوعی را متوقف کنید

نامه سرگشاده به همه آزمایشگاه‌های هوش مصنوعی

0

ایلان ماسک و جمع بسیاری از اندیشنمدان، کارآفرینان در نامه‌ای سرگشاده که قابل امضا است و تا این لحظه ۱۱۸۷ نفر آن را امضا کرده اند و‌در حال گسترش است از تمامی آزمایشگاه های هوش مصنوعی بخصوص از openai خالق Chat-GPT خواسته اند ماشین های هوش مصنوعی را برای مدت شش ماه خاموش کنند آنها معتقدند هوش مصنوعی با این روند تبدیل به هیولایی خواهد شد که کنترل آن از دست سازندگانش نیز خارج خواهد شد. در این نامه بی سابقه از دولت ها خواسته شده در خصوص این توقف مداخله کنند. متن این نامه را که Chat-GPT برایمان ترجمه کرده بدون ویرایش منتقل می کنیم چون معتقدیم باید در کنار ضعف ها قدرت این ابر هوش مصنوعی سنجیده شود. نسخه ای که ما از آن استفاده می کنیم نسخه اولیه است و از نسخه پیش رفته ۴ Chat-GPT استفاده نشده است.
متن کامل نامه:
ما از تمامی آزمایشگاه‌های هوش مصنوعی خواستار متوقف کردن آموزش سیستم‌های هوش مصنوعی با توانایی بیشتر از GPT-4 به مدت حداقل ۶ ماه هستیم.
همانطور که تحقیقات گسترده ای نشان می‌دهد و توسط برترین آزمایشگاه‌های هوش مصنوعی به اقرار رسیده است، سیستم‌های هوش مصنوعی با هوش رقابتی انسان، می توانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند. همانطور که در اصول هوش مصنوعی اسیلومار پذیرفته شده است، هوش مصنوعی پیشرفته می تواند تغییرات عمیقی را در تاریخ زندگی روی زمین ایجاد کند و باید با مدیریت و برنامه ریزی با اهمیت و منابع متناسب برای آن برنامه ریزی شود. متاسفانه، در حال حاضر این سطح برنامه ریزی و مدیریت اتفاق نمی افتد، هر چند که در چندین ماه گذشته، آزمایشگاه‌های هوش مصنوعی در یک مسابقه بی‌‌کنترل برای توسعه و ارائه ذهن‌های دیجیتالی قدرتمند تلاش کرده‌اند که هیچ کس – حتی خود سازندگان آن‌ها – نمی‌توانند آن‌ها را به طور قابل پیش‌بینی یا قابل کنترل درک کنند یا کنترل کنند.
سیستم‌های هوش مصنوعی معاصر در حال حاضر در کارهای عمومی رقابت با انسان به سطحی رسیده‌اند که باید خودمان را بپرسیم: آیا باید به ماشین‌ها اجازه دهیم با پراپاگاندا و دروغ، کانال‌های اطلاعاتی ما را سیلاب کنند؟ آیا باید تمامی شغل‌ها را حتی کارهای پربار را هم به صورت خودکار انجام دهیم؟ آیا باید ذهنی غیرانسانی توسعه دهیم که در آینده ممکن است به تعداد، هوشی و جایگاه بیشتری نسبت به ما برسند و ما را منسوخ کرده و جایگزین کنند؟ آیا باید خطر از دست دادن کنترل بر تمدن ما را به خطر بیاندازیم؟

این تصمیمات نباید به رهبران فناوری بدون انتخابات منتقل شوند. سیستم‌های هوشمند قدرتمند باید فقط زمانی توسعه داده شوند که مطمئن شویم اثرات آن‌ها مثبت است و خطرات آن‌ها قابل مدیریت هستند. این اطمینان باید با توجه به شدت تأثیرات ممکن سیستم، به خوبی توجیه شود و با بزرگ شدن اثرات پتانسیلی یک سیستم، باید افزایش یابد. بیانیه اخیر OpenAI درباره هوش مصنوعی عمومی، می‌گوید “در یک نقطه‌ای ممکن است قبل از شروع به آموزش سیستم‌های آتی، بررسی مستقل مهم باشد و برای تلاش‌های پیشرفته‌تر، توافق برای محدود کردن نرخ رشد محاسبات استفاده شده برای ایجاد مدل‌های جدید، ضروری باشد.” ما هم موافقیم. این نقطه الان است.
بنابراین، ما از همه آزمایشگاه های هوش مصنوعی خواستاریم که بلافاصله برای حداقل ۶ ماه، آموزش سیستم های هوشمندی که قدرتمندتر از GPT-4 هستند را متوقف کنند. این توقف باید عمومی و قابل اثبات باشد و شامل همه عوامل کلیدی باشد. اگر چنین توقفی به سرعت اعمال نشود، دولت ها باید دخالت کنند و مرحله تعلیق را موقتا اعمال کنند.
آزمایشگاه های هوش مصنوعی و کارشناسان مستقل باید از این توقف استفاده کنند تا به صورت مشترک پروتکل های ایمنی مشترکی برای طراحی و توسعه هوش مصنوعی پیشرفته توسعه داده و اجرا کنند که توسط کارشناسان مستقل اعمال نظارت و بازرسی صورت گیرد.

این پروتکل ها باید اطمینان دهنده باشند که سیستم هایی که به آنها وفاداری می کنند، بدون تردید ایمن هستند. این به معنای توقف کلی توسعه هوش مصنوعی نیست، تنها یک قدم عقب از رقابت خطرناک برای ایجاد مدل هایی با قابلیت های اضطراری و پیش بینی نشدنی است.
تحقیقات و توسعه هوش مصنوعی باید بر روی ایجاد سیستم های امروزی، پیشرفته، قدرتمند و دارای حالت کارایی بیشتر، امن، قابل تفسیر، شفاف، قوی، همراه با ارزش‌های جامعه و مورد اعتماد و وفاداری تمرکز یابد. به علاوه، توسعه دهندگان هوش مصنوعی باید با سیاستگذاران همکاری کرده و سیستم های حکومتی هوش مصنوعی قوی را با سرعت بسیار بالا توسعه دهند.

این سیستم ها شامل مواردی مانند: مقامات نظارت و نظارت جدید و قابل اعتماد به هوش مصنوعی، نظارت و پیگیری سیستم های هوش مصنوعی قدرتمند و محاسباتی بزرگ، سیستم های تبیین منشا و علامت‌گذاری برای کمک به تمیز دادن حقیقت از مصنوعی و پیگیری نشت مدل، یک اکوسیستم بازرسی و گواهی‌نامه قوی، مسئولیت مالی برای صدمات ناشی از هوش مصنوعی، پشتیبانی قوی از تحقیقات تخصصی ایمنی هوش مصنوعی و نهادهای دارای منابع کافی برای مقابله با اختلالات اقتصادی و سیاسی شدید (به ویژه به دموکراسی) که هوش مصنوعی ایجاد خواهد کرد، باشند.
انسانیت می‌تواند با هوش مصنوعی آینده روشن و موفقی داشته باشد. پس از موفقیت در ایجاد سیستم‌های هوشمند، می‌توانیم حالا یک “تابستان هوش مصنوعی” را تجربه کنیم که در آن مزایای آن را برداشت کنیم، سیستم‌ها را به منظور بهره‌مندی همه‌ی افراد بهبود دهیم و به جامعه فرصتی برای سازگار شدن بدهیم. جامعه در موارد دیگری که بر تأثیرات ناسالم بر جامعه می‌تواند داشته باشد، توانسته است مرحله‌ای از توسعه فناوری را متوقف کند. می‌توانیم همین کار را در اینجا انجام دهیم. بیایید یک تابستان طولانی از هوش مصنوعی را لذت ببریم، و به ناامیدی و گرفتاری ناشی از پیش بینی نشده، بی‌آماده وارد چالش بعدی نشویم.

Elon Musk and researchers ask for pause on ‘dangerous race’ to improve AI

ارسال دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.