هشدار کارگران OpenAI ممکن است هوش مصنوعی باعث “انقراض انسان” شود


گروهی از کارمندان فعلی و سابق شرکت‌های بزرگ سیلیکون ولی که هوش مصنوعی را توسعه می‌دهند، در نامه‌ای سرگشاده هشدار دادند که بدون پادمان‌های اضافی، هوش مصنوعی می‌تواند خطر “انقراض انسان” باشد.

این نامه که توسط 13 کارمند سابق که عمدتاً از شرکت‌هایی از جمله OpenAI، Anthropic و DeepMind گوگل امضا شده است، می‌گوید که محققان برتر هوش مصنوعی برای ابراز انتقاد از پیشرفت‌های جدید و دریافت نظرات عمومی و سیاست‌گذاران در جهت نوآوری در هوش مصنوعی به حمایت‌های بیشتری نیاز دارند.

در نامه روز سه شنبه آمده است: «ما به پتانسیل فناوری هوش مصنوعی برای به ارمغان آوردن مزایای بی سابقه برای بشریت اعتقاد داریم. ما همچنین خطرات جدی ناشی از این فناوری ها را درک می کنیم. این خطرات از بدتر شدن نابرابری های موجود، دستکاری و اطلاعات نادرست، تا از دست دادن کنترل سیستم های هوش مصنوعی مستقل که می تواند منجر به انقراض بشریت شود، متغیر است.

این نامه استدلال می‌کند که شرکت‌هایی که فناوری‌های قدرتمند هوش مصنوعی، از جمله هوش عمومی مصنوعی (AGI) را توسعه می‌دهند، یک سیستم هوش مصنوعی تئوریزه‌شده به هوشمندی یا حتی هوشمندتر از هوش انسانی، «محرک‌های مالی قوی برای اجتناب از نظارت مؤثر، هم از جانب کارمندان خود و هم از سوی سازمان‌ها وجود دارد. عمومی.

نیل ناندا از DeepMind تنها محقق هوش مصنوعی است که در حال حاضر به یکی از شرکت هایی که نامه را امضا کرده است وابسته است.

او گفت: “این به این دلیل نیست که من در حال حاضر چیزی دارم که بخواهم به کارفرمایان فعلی یا سابق خود در مورد آن هشدار دهم، و نه انتقاد خاصی از نگرش آنها نسبت به افشاگران.” نوشت بر هر آزمایشگاهی که به دنبال ایجاد AGI است باید نشان دهد که شایسته اعتماد عمومی است و اطمینان از داشتن حق قوی و محافظت شده کارکنان برای افشاگر اولین قدم کلیدی است.

اسکارلت جوهانسون که قبلا صداپیشگی دستیار هوش مصنوعی در فیلم Her را بر عهده داشت، OpenAI را متهم کرد که از صدای او به عنوان مدلی برای یکی از محصولات خود استفاده می کند.
اسکارلت جوهانسون که پیش از این در فیلم Her صداپیشگی دستیار هوش مصنوعی را بر عهده داشت، OpenAI را متهم کرد که از صدای او به عنوان مدلی برای یکی از محصولاتش استفاده کرده است. (آرشیو PA)

این پست از شرکت‌ها می‌خواهد تا از مجازات یا ساکت کردن کارمندان فعلی یا سابقی که در مورد خطرات هوش مصنوعی صحبت می‌کنند، خودداری کنند. توافق. قرارداد عدم تحقیر شرکت که هرگز منقضی نشده است. (OpenAI بعداً این الزام را لغو کرد و گفت: “این نشان دهنده ارزش های ما یا شرکتی نیست که می خواهیم باشیم.”)

سخنگوی OpenAI گفت: «ما به سوابق خود در ارائه بالاترین عملکرد و ایمن‌ترین سیستم‌های هوش مصنوعی افتخار می‌کنیم و به رویکرد علمی خود برای مدیریت ریسک اعتقاد داریم. مستقل. ما موافقیم که بحث های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به همکاری با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد. »

این شرکت اضافه کرد که برای اطمینان از شنیده شدن کارمندانش و توسعه مسئولانه محصولاتش، اقداماتی را انجام می‌دهد، از جمله خط تلفن کارگران ناشناس و کمیته ایمنی و امنیتی که پیشرفت‌های شرکت را بررسی می‌کند. OpenAI همچنین حمایت خود را از افزایش مقررات هوش مصنوعی و تعهدات داوطلبانه در مورد ایمنی هوش مصنوعی برجسته کرده است.

این نامه سرگشاده به دنبال فصلی از بحث و جدل برای بزرگترین شرکت‌های هوش مصنوعی، به‌ویژه OpenAI است، درست زمانی که دستیاران هوش مصنوعی و کمک‌هایی را با ویژگی‌های جدید قدرتمند معرفی می‌کنند، مانند توانایی برقراری مکالمات صوتی به صوت زنده با انسان‌ها و پاسخ به اطلاعات بصری. . مانند یک جریان ویدیویی یا یک مسئله ریاضی نوشتاری.

اسکارلت جوهانسون، بازیگر، که قبلا صداپیشگی دستیار هوش مصنوعی در این فیلم را بر عهده داشت او، OpenAI را متهم کرد که علیرغم رد صریح چنین پیشنهادی، از صدای او به عنوان مدلی برای یکی از محصولات خود استفاده می کند. اگرچه مدیر عامل OpenAI در هنگام راه اندازی دستیار صوتی کلمه “او” را توییت کرد، اما این شرکت از آن زمان استفاده از صدای جوهانسون را به عنوان مدل رد کرده است.

همچنین در ماه مه، OpenAI تیمی را که به طور خاص برای مطالعه خطرات بلندمدت هوش مصنوعی تشکیل داده بود، کمتر از یک سال پس از تأسیس، منحل کرد.

بسیاری از محققان برجسته این شرکت در ماه های اخیر شرکت را ترک کرده اند، از جمله ایلیا سوتسکور، یکی از بنیانگذاران این شرکت.

این آخرین تغییر و تحول از زمانی است که شرکت در سال گذشته با یک نبرد بزرگ در اتاق هیئت مدیره مواجه شد، که در آن آلتمن به طور موقت از سمت خود برکنار شد و سپس کمتر از یک سال پیش بازگردانده شد.

مستقل برای نظر دادن با آنتروپیک و گوگل تماس گرفته است.



دیدگاهتان را بنویسید