گروهی از کارمندان فعلی و سابق شرکتهای بزرگ سیلیکون ولی که هوش مصنوعی را توسعه میدهند، در نامهای سرگشاده هشدار دادند که بدون پادمانهای اضافی، هوش مصنوعی میتواند خطر “انقراض انسان” باشد.
این نامه که توسط 13 کارمند سابق که عمدتاً از شرکتهایی از جمله OpenAI، Anthropic و DeepMind گوگل امضا شده است، میگوید که محققان برتر هوش مصنوعی برای ابراز انتقاد از پیشرفتهای جدید و دریافت نظرات عمومی و سیاستگذاران در جهت نوآوری در هوش مصنوعی به حمایتهای بیشتری نیاز دارند.
در نامه روز سه شنبه آمده است: «ما به پتانسیل فناوری هوش مصنوعی برای به ارمغان آوردن مزایای بی سابقه برای بشریت اعتقاد داریم. ما همچنین خطرات جدی ناشی از این فناوری ها را درک می کنیم. این خطرات از بدتر شدن نابرابری های موجود، دستکاری و اطلاعات نادرست، تا از دست دادن کنترل سیستم های هوش مصنوعی مستقل که می تواند منجر به انقراض بشریت شود، متغیر است.
این نامه استدلال میکند که شرکتهایی که فناوریهای قدرتمند هوش مصنوعی، از جمله هوش عمومی مصنوعی (AGI) را توسعه میدهند، یک سیستم هوش مصنوعی تئوریزهشده به هوشمندی یا حتی هوشمندتر از هوش انسانی، «محرکهای مالی قوی برای اجتناب از نظارت مؤثر، هم از جانب کارمندان خود و هم از سوی سازمانها وجود دارد. عمومی.
نیل ناندا از DeepMind تنها محقق هوش مصنوعی است که در حال حاضر به یکی از شرکت هایی که نامه را امضا کرده است وابسته است.
او گفت: “این به این دلیل نیست که من در حال حاضر چیزی دارم که بخواهم به کارفرمایان فعلی یا سابق خود در مورد آن هشدار دهم، و نه انتقاد خاصی از نگرش آنها نسبت به افشاگران.” نوشت بر هر آزمایشگاهی که به دنبال ایجاد AGI است باید نشان دهد که شایسته اعتماد عمومی است و اطمینان از داشتن حق قوی و محافظت شده کارکنان برای افشاگر اولین قدم کلیدی است.
این پست از شرکتها میخواهد تا از مجازات یا ساکت کردن کارمندان فعلی یا سابقی که در مورد خطرات هوش مصنوعی صحبت میکنند، خودداری کنند. توافق. قرارداد عدم تحقیر شرکت که هرگز منقضی نشده است. (OpenAI بعداً این الزام را لغو کرد و گفت: “این نشان دهنده ارزش های ما یا شرکتی نیست که می خواهیم باشیم.”)
سخنگوی OpenAI گفت: «ما به سوابق خود در ارائه بالاترین عملکرد و ایمنترین سیستمهای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مدیریت ریسک اعتقاد داریم. مستقل. ما موافقیم که بحث های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به همکاری با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد. »
این شرکت اضافه کرد که برای اطمینان از شنیده شدن کارمندانش و توسعه مسئولانه محصولاتش، اقداماتی را انجام میدهد، از جمله خط تلفن کارگران ناشناس و کمیته ایمنی و امنیتی که پیشرفتهای شرکت را بررسی میکند. OpenAI همچنین حمایت خود را از افزایش مقررات هوش مصنوعی و تعهدات داوطلبانه در مورد ایمنی هوش مصنوعی برجسته کرده است.
این نامه سرگشاده به دنبال فصلی از بحث و جدل برای بزرگترین شرکتهای هوش مصنوعی، بهویژه OpenAI است، درست زمانی که دستیاران هوش مصنوعی و کمکهایی را با ویژگیهای جدید قدرتمند معرفی میکنند، مانند توانایی برقراری مکالمات صوتی به صوت زنده با انسانها و پاسخ به اطلاعات بصری. . مانند یک جریان ویدیویی یا یک مسئله ریاضی نوشتاری.
اسکارلت جوهانسون، بازیگر، که قبلا صداپیشگی دستیار هوش مصنوعی در این فیلم را بر عهده داشت او، OpenAI را متهم کرد که علیرغم رد صریح چنین پیشنهادی، از صدای او به عنوان مدلی برای یکی از محصولات خود استفاده می کند. اگرچه مدیر عامل OpenAI در هنگام راه اندازی دستیار صوتی کلمه “او” را توییت کرد، اما این شرکت از آن زمان استفاده از صدای جوهانسون را به عنوان مدل رد کرده است.
همچنین در ماه مه، OpenAI تیمی را که به طور خاص برای مطالعه خطرات بلندمدت هوش مصنوعی تشکیل داده بود، کمتر از یک سال پس از تأسیس، منحل کرد.
بسیاری از محققان برجسته این شرکت در ماه های اخیر شرکت را ترک کرده اند، از جمله ایلیا سوتسکور، یکی از بنیانگذاران این شرکت.
این آخرین تغییر و تحول از زمانی است که شرکت در سال گذشته با یک نبرد بزرگ در اتاق هیئت مدیره مواجه شد، که در آن آلتمن به طور موقت از سمت خود برکنار شد و سپس کمتر از یک سال پیش بازگردانده شد.
مستقل برای نظر دادن با آنتروپیک و گوگل تماس گرفته است.