تینگهداری آن می تواند برای ویلیام ساندرز پرهزینه باشد. این محقق امنیتی سابق در ماه فوریه از OpenAI استعفا داد و مانند بسیاری دیگر از کارمندان در حال خروج، قراردادی را امضا کرد تا حق فروش سهام خود را در شرکت حفظ کند. اگرچه او میگوید که OpenAI از آن زمان به او اعلام کرده است که قصد اجرای توافق را ندارد و تعهدات عمومی مشابهی را پذیرفته است، اما او همچنان در صحبت کردن به خطر میافتد. او به تایم گفت: «وقتی با شما صحبت میکنم، شاید هرگز نتوانم به سهامی به ارزش میلیونها دلار دسترسی داشته باشم. اما من فکر میکنم گفتگوی عمومی در مورد آنچه در این شرکتهای AGI اتفاق میافتد، مهمتر است.»
دیگران نیز همین احساس را دارند. روز سهشنبه، 13 کارمند فعلی و سابق OpenAI و Google DeepMind خواستار محافظت قویتر از افشاگران در شرکتهای توسعهدهنده هوش مصنوعی پیشرفته شدند، زیرا از ترس اینکه فناوری جدید قدرتمند به طور خطرناکی از کنترل خارج شود. در نامهای سرگشاده، آنها از آزمایشگاهها خواستند تا با دادن حق “اعلام” به رگولاتورها، اعضای هیئت مدیره و مردم در مورد نگرانیهای ایمنی خود موافقت کنند.
این نامه به دنبال مجموعه ای از خروج های برجسته از OpenAI، از جمله دانشمند ارشد آن، ایلیا سوتسکور، که در نوامبر سال گذشته به اخراج سم آلتمن رأی داد، اما در نهایت از شرکت اخراج شد، منتشر شد. سوتسکور علناً در مورد این رویدادها اظهار نظر نکرده است و دلایل جدایی او مشخص نیست. یکی دیگر از محققین ارشد امنیتی، یان لیک، در ماه مه استعفا داد و گفت که فرهنگ امنیتی OpenAI به عرضه محصولات جدید عقب افتاده است.
بیشتر بدانید: کارمندان می گویند OpenAI و Google DeepMind خطرات را از مردم پنهان می کنند
آنها تنها کسانی نیستند که اخیراً متوقف شده اند. دانیل کوکوتاجلو، یکی از کارمندان سابق که آغازگر این نامه سرگشاده بود، در ماه آوریل استعفا داد و به صورت آنلاین نوشت که اعتمادش را از دست داده است که آزمایشگاه اگر AGI یا هوش عمومی مصنوعی را ایجاد کند، یک فناوری گمانهزنی که همه آزمایشگاههای اصلی هوش مصنوعی ایجاد میکنند، مسئولانه عمل خواهد کرد. تلاش برای ساخت موجوداتی که قادر به انجام وظایف جالب اقتصادی بهتر از یک انسان باشند. پس از جدایی، کوکوتاجلو از امضای قرارداد عدم تحقیر که شرکت باید کارکنان در حال خروج را امضا کنند، خودداری کرد. او فکر می کرد که میلیون ها دلار از سهام خود را در OpenAI از دست می دهد. پس از اینکه Vox مقاله ای در مورد مقررات عدم تحقیر منتشر کرد، OpenAI از این سیاست عقب نشینی کرد و گفت که حقوق صاحبان سهام را از کارکنانی که از شرکت انتقاد می کردند بازیابی نمی کند.
OpenAI در بیانیه ای اذعان کرد که بحث عمومی در مورد هوش مصنوعی پیشرفته ضروری است. لیندزی هلد، سخنگوی OpenAI به نیویورک تایمز گفت: «ما به سابقه خود در ارائه بهترین و ایمنترین سیستمهای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مدیریت ریسک اعتقاد داریم. ما موافقیم که بحث های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به همکاری با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد. » OpenAI از ارائه توضیحات بیشتر به TIME در مورد ادعاهای این داستان خودداری کرد. Google DeepMind به طور عمومی در مورد این نامه سرگشاده اظهار نظر نکرده و به درخواست TIME برای اظهار نظر پاسخی نداده است.
اما در مصاحبه با تایم، دو کارمند سابق OpenAI – کوکوتاجلو، که در تیم مدیریت شرکت کار میکرد، و ساندرز، محقق تیم سوپرهمترازی – گفتند که در حتی فراتر از توافقنامههای عدم تحقیر، توافقنامههای محرمانه تعریف شده در آزمایشگاههای اصلی هوش مصنوعی انجام شد. برای کارمندان خطرناک است که به طور عمومی در مورد نگرانی های خود صحبت کنند. هر دو گفتند که انتظار دارند قابلیتهای سیستمهای هوش مصنوعی در سالهای آینده به میزان قابل توجهی افزایش یابد و این تغییرات تأثیرات اساسی بر جامعه خواهد داشت. کوکوتاجلو می گوید: “مخاطرات فوق العاده زیاد است.”
در صنایع تحت نظارت، مانند امور مالی، افشاگران هنگام گزارش تخلفات مختلف از قانون، از حمایت دولت ایالات متحده برخوردار می شوند و حتی می توانند انتظار کاهش در برخی جریمه ها را داشته باشند. اما از آنجایی که قوانین خاصی در مورد توسعه پیشرفته هوش مصنوعی وجود ندارد، افشاگران در بخش هوش مصنوعی از چنین حمایتهایی بهره نمیبرند و در صورت شکستن قراردادهای عدم افشا یا عدم تحقیر ممکن است خود در معرض خطرات قانونی قرار گیرند. کوکوتاجلو توضیح میدهد: «حفاظتهای از قبل برای افشاگران در اینجا اعمال نمیشود، زیرا این صنعت واقعاً تنظیم نشده است، بنابراین هیچ قانونی در مورد بسیاری از کارهای بالقوه خطرناکی که شرکتها میتوانند انجام دهند، وجود ندارد.
ساندرز می گوید: «آزمایشگاه های AGI به هیچکس پاسخگو نیست. «پاسخگویی مستلزم آن است که اگر سازمانی کار اشتباهی انجام دهد، اطلاعات مربوط به آن را بتوان به اشتراک گذاشت. و در حال حاضر، این مورد نیست.
زمانی که او در سال 2021 به OpenAI پیوست، ساندرز گفت که امیدوار است شرکت را با یک سری سوالات دشوار دست و پنجه نرم کند: “اگر ماشینی وجود دارد که بتواند کارهای جالب اقتصادی را که شما انجام می دهید انجام دهد، در واقع چقدر قدرت در یک ماشین دارید؟ شرکت؟ آیا اگر جایگزینی برای افراد شاغل وجود داشته باشد، آیا می توانیم جامعه ای دموکراتیک داشته باشیم؟ اما پس از انتشار ChatGPT در نوامبر 2022، OpenAI شروع به تبدیل شدن به یک شرکت بسیار متفاوت کرد. در نهایت ارزش آن به ده ها میلیارد دلار رسید و مدیران آن در رقابتی برای شکست دادن رقبا شرکت کردند. به گفته او، سؤالاتی که ساندرز امیدوار بود OpenAI با آنها دست و پنجه نرم کند، اکنون به نظر می رسد “تأخیر افتاده است و برای عرضه محصول جدید براق بعدی عقب افتاده است.”
در این نامه سرگشاده، ساندرز، کوکوتاجلو و سایر کارکنان فعلی و سابق از آزمایشگاههای هوش مصنوعی میخواهند که از درخواست کارمندان خود برای امضای قراردادهای عدم تحقیر خودداری کنند. ایجاد فرآیندی برای کارمندان برای مطرح کردن نگرانی های خود با اعضای هیئت مدیره، تنظیم کننده ها و گروه های ناظر. و “فرهنگ انتقاد باز” را پرورش دهید. در نامه سرگشاده آمده است که اگر یک افشاگر پس از تلاش ناموفق برای مطرح کردن نگرانیها از طریق این کانالها، علنی شود، شرکتهای هوش مصنوعی باید متعهد شوند که علیه آنها تلافی نکنند.
حداقل یک کارمند فعلی OpenAI از نامه سرگشاده در رسانه های اجتماعی انتقاد کرد و استدلال کرد که کارمندانی که در مورد ترس های امنیتی خود به طور عمومی صحبت می کنند، رسیدگی به مسائل بسیار حساس را برای آزمایشگاه ها دشوارتر می کند. جاشوا آچیام، دانشمند پژوهشی در OpenAI، در مقالهای در این باره مینویسد: «اگر میخواهید امنیت در OpenAI به طور مؤثر کار کند، باید یک پایه اساسی اعتماد وجود داشته باشد که در آن هرکسی که با آن کار میکنیم باید بداند که اعتماد خود را حفظ خواهیم کرد. X، پلتفرمی که قبلاً با نام توییتر شناخته می شد. “این نامه شکاف بزرگی در آن پایه ها است.”
با این حال، این استدلال تا حدی به رفتار مسئولانه رهبران OpenAI بستگی دارد – چیزی که رویدادهای اخیر آن را زیر سوال برده است. ساندرز معتقد است که آلتمن، مدیر عامل شرکت، اساسا از پاسخگویی بیزار است. او میگوید: «من فکر میکنم بهویژه سام آلتمن، او از نظارت و مسئولیتپذیری بسیار ناراحت است. “من فکر میکنم که گویای این است که هر گروهی که احتمالاً میتواند بر او نظارت کند، از جمله هیئت مدیره و کمیته ایمنی و امنیت، سم آلتمن احساس میکند که باید شخصاً بخشی از آن باشد – و هیچکس نمیتواند به او نه بگوید.”
(پس از اخراج آلتمن توسط هیئت مدیره سابق OpenAI در نوامبر گذشته، شرکت حقوقی WilmerHale تحقیقاتی در مورد شرایط انجام داد و به این نتیجه رسید که “رفتار او مستلزم برکناری او نیست.» هیئت مدیره جدید OpenAI متعاقباً “اطمینان کامل” را به رهبری آلتمن ابراز کرد. لری سامرز و برت تیلور، دو عضو جدید هیئت مدیره، اخیراً در این باره نوشتند: “ما متوجه شدیم. آقای آلتمن در مورد همه مسائل مربوطه بسیار باز است و همیشه با تیم مدیریتی خود همکار است.” اقتصاد دان.)
بیشتر بدانید: هزینه میلیارد دلاری ساخت هوش مصنوعی
برای ساندرز، پاسخگویی بسیار مهم است و اگر شرکتهای هوش مصنوعی به تنهایی و بدون تنظیمکنندهها و نهادهای خارجی عمل کنند، وجود نخواهد داشت. او گفت: «اگر یک توسعهدهنده AGI میخواهید که واقعاً در راستای منافع عمومی عمل کند و به ایدهآل ایجاد یک AGI ایمن و سودمند عمل کند، باید سیستمهای نظارتی و پاسخگویی وجود داشته باشد که واقعاً «سازمان را به این ایدهآل» حفظ کند. . گفت. و سپس، در یک دنیای ایده آل، مهم نیست که چه کسی بر صندلی مدیر عامل است. اگر دنیا باید تصمیم بگیرد که کدام یک از این مدیران شرکتهای هوش مصنوعی بهترین شخصیت اخلاقی را دارند، بسیار مشکلساز است. این یک وضعیت ایده آل نیست.