گروهی از کارمندان فعلی و سابق شرکتهای پیشرو هوش مصنوعی OpenAI و Google DeepMind روز سهشنبه نامهای منتشر کردند و در مورد خطرات هوش مصنوعی پیشرفته همانطور که ادعا میکنند هشدار دادند. شرکت ها در عین اجتناب از نظارت، منافع مالی را در اولویت قرار می دهند.
سیزده کارمند، که یازده نفر از آنها کارمندان فعلی یا سابق OpenAI، شرکت پشتیبان ChatGPT هستند، نامه ای را با عنوان: “حق افشاگری در مورد هوش مصنوعی پیشرفته” امضا کردند. THE دو سایر امضاکنندگان کارمندان فعلی و سابق Google DeepMind هستند. شش نفر ناشناس هستند.
ائتلاف هشدار میدهد که سیستمهای هوش مصنوعی به اندازهای قدرتمند هستند که بدون مقررات مناسب آسیبهای جدی وارد کنند. در این نامه آمده است: «این خطرات از بدتر شدن نابرابریهای موجود، دستکاری و اطلاعات نادرست، تا از دست دادن کنترل سیستمهای هوش مصنوعی مستقل که میتواند منجر به انقراض بشریت شود، متغیر است.
بیشتر بدانید: انحصاری: گزارش سفارش دولت می گوید که ایالات متحده باید برای جلوگیری از تهدید “انقراض” هوش مصنوعی “قاطعانه” عمل کند.
لیندزی هلد، سخنگوی OpenAI به نیویورک تایمز گفت: «ما به سابقه خود در ارائه بهترین و ایمنترین سیستمهای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مدیریت ریسک اعتقاد داریم. بار. ما موافقیم که بحث های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به همکاری با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد. »
Google DeepMind به طور عمومی در مورد این نامه اظهار نظر نکرده و به درخواست TIME برای اظهار نظر پاسخی نداده است.
مدیران سه شرکت بزرگ هوش مصنوعی – OpenAI، Google DeepMind و Anthropic – در گذشته در مورد این خطرات صحبت کرده اند. اگر ما یک سیستم هوش مصنوعی بسازیم که به طور قابل توجهی از متخصصان انسانی شایستگی بیشتری داشته باشد، اما اهدافی را دنبال کند که با بهترین منافع ما در تضاد باشد، عواقب آن میتواند فاجعهبار باشد… پیشرفتهای سریع در هوش مصنوعی بسیار مخرب است، اشتغال، اقتصاد کلان و ساختارهای قدرت را تغییر میدهد. [we have already encountered] شرکت تحقیقاتی و امنیتی آنتروپیک در ماه مارس 2023 در بیانیهای گفت که این نامه به آن مرتبط است. (یکی از امضاکنندگان نامه که در حال حاضر در Google DeepMind کار می کند قبلاً در Anthropic کار می کرد.)
بیشتر بدانید: در داخل Anthropic، شرکت هوش مصنوعی شرط میبندد که امنیت میتواند یک استراتژی برنده باشد
گروه پشت این نامه میگوید شرکتهای هوش مصنوعی اطلاعاتی در مورد خطرات فناوری هوش مصنوعی دارند که روی آن کار میکنند، اما به این دلیل که به آن نیازی نیست. اگرچه دولتها چیز زیادی برای افشای ندارند، تواناییهای واقعی سیستمهای آنها مخفی باقی میماند. آنها می گویند که این بدان معناست که کارمندان فعلی و سابق تنها کسانی هستند که می توانند شرکت ها را مسئول بدانند، و با این حال بسیاری از آنها دستان خود را با توافق نامه های محرمانه بسته اند که مانع از بیان عمومی نگرانی های کارگران می شود. این گروه نوشت: «حمایتهای معمولی از افشاگران کافی نیست زیرا بر فعالیتهای غیرقانونی تمرکز میکنند، در حالی که بسیاری از خطرات مورد نگرانی ما هنوز تنظیم نشده است.
لارنس لسیگ، وکیل مدافع گروه، به نیویورک تایمز گفت: «کارمندان خط دفاعی مهمی هستند و اگر نتوانند آزادانه و بدون تلافی صحبت کنند، آن کانال بسته خواهد شد. بار.
نویسندگان نامه چهار خواسته از شرکتهای پیشرفته هوش مصنوعی مطرح کردند: اجبار کارمندان به توافقهایی را که مانع از انتقاد کارفرمای خود به دلیل «نگرانیهای ریسک» میشود، متوقف شود، ایجاد فرآیندی ناشناس برای کارمندان برای مطرح کردن نگرانیهای خود با اعضای هیئتمدیره و سایر تنظیمکنندهها یا سازمانهای مرتبط، حمایت از “فرهنگ انتقاد آشکار” و نسبت به کارکنان سابق و فعلی که “اطلاعات محرمانه مرتبط با خطرات پس از شکست سایر فرآیندها” را به اشتراک می گذارند، تلافی نکنید.
دولتها در سراسر جهان اقداماتی را برای تنظیم هوش مصنوعی انجام دادهاند، اگرچه پیشرفت از سرعت پیشرفت هوش مصنوعی عقبتر است. در اوایل سال جاری، اتحادیه اروپا اولین قانون جامع هوش مصنوعی در جهان را تصویب کرد. تلاشهای همکاری بینالمللی در اجلاسهای امنیتی هوش مصنوعی در بریتانیا و کره جنوبی و همچنین در سازمان ملل در اکتبر 2023 ادامه یافت. رئیسجمهور جو بایدن فرمان اجرایی در مورد هوش مصنوعی را امضا کرد که از جمله، از شرکتهای هوش مصنوعی میخواهد پیشرفتها و پیشرفتهای خود را افشا کنند. تست های امنیتی طرح در وزارت بازرگانی با این حال، این افشاگری ها لزوماً نباید علنی شوند، که می تواند مانع از نظارت گسترده تر مورد نظر امضاکنندگان نامه شود.
-با گزارش اضافی توسط ویل هنشال/واشنگتن