دو کارمند سابق OpenAI در محافظت از افشاگران


تینگهداری آن می تواند برای ویلیام ساندرز پرهزینه باشد. این محقق امنیتی سابق در ماه فوریه از OpenAI استعفا داد و مانند بسیاری دیگر از کارمندان در حال خروج، قراردادی را امضا کرد تا حق فروش سهام خود را در شرکت حفظ کند. اگرچه او می‌گوید که OpenAI از آن زمان به او اعلام کرده است که قصد اجرای توافق را ندارد و تعهدات عمومی مشابهی را پذیرفته است، اما او همچنان در صحبت کردن به خطر می‌افتد. او به تایم گفت: «وقتی با شما صحبت می‌کنم، شاید هرگز نتوانم به سهامی به ارزش میلیون‌ها دلار دسترسی داشته باشم. اما من فکر می‌کنم گفتگوی عمومی در مورد آنچه در این شرکت‌های AGI اتفاق می‌افتد، مهم‌تر است.»

دیگران نیز همین احساس را دارند. روز سه‌شنبه، 13 کارمند فعلی و سابق OpenAI و Google DeepMind خواستار محافظت قوی‌تر از افشاگران در شرکت‌های توسعه‌دهنده هوش مصنوعی پیشرفته شدند، زیرا از ترس اینکه فناوری جدید قدرتمند به طور خطرناکی از کنترل خارج شود. در نامه‌ای سرگشاده، آنها از آزمایشگاه‌ها خواستند تا با دادن حق “اعلام” به رگولاتورها، اعضای هیئت مدیره و مردم در مورد نگرانی‌های ایمنی خود موافقت کنند.

این نامه به دنبال مجموعه ای از خروج های برجسته از OpenAI، از جمله دانشمند ارشد آن، ایلیا سوتسکور، که در نوامبر سال گذشته به اخراج سم آلتمن رأی داد، اما در نهایت از شرکت اخراج شد، منتشر شد. سوتسکور علناً در مورد این رویدادها اظهار نظر نکرده است و دلایل جدایی او مشخص نیست. یکی دیگر از محققین ارشد امنیتی، یان لیک، در ماه مه استعفا داد و گفت که فرهنگ امنیتی OpenAI به عرضه محصولات جدید عقب افتاده است.

بیشتر بدانید: کارمندان می گویند OpenAI و Google DeepMind خطرات را از مردم پنهان می کنند

آنها تنها کسانی نیستند که اخیراً متوقف شده اند. دانیل کوکوتاجلو، یکی از کارمندان سابق که آغازگر این نامه سرگشاده بود، در ماه آوریل استعفا داد و به صورت آنلاین نوشت که اعتمادش را از دست داده است که آزمایشگاه اگر AGI یا هوش عمومی مصنوعی را ایجاد کند، یک فناوری گمانه‌زنی که همه آزمایشگاه‌های اصلی هوش مصنوعی ایجاد می‌کنند، مسئولانه عمل خواهد کرد. تلاش برای ساخت موجوداتی که قادر به انجام وظایف جالب اقتصادی بهتر از یک انسان باشند. پس از جدایی، کوکوتاجلو از امضای قرارداد عدم تحقیر که شرکت باید کارکنان در حال خروج را امضا کنند، خودداری کرد. او فکر می کرد که میلیون ها دلار از سهام خود را در OpenAI از دست می دهد. پس از اینکه Vox مقاله ای در مورد مقررات عدم تحقیر منتشر کرد، OpenAI از این سیاست عقب نشینی کرد و گفت که حقوق صاحبان سهام را از کارکنانی که از شرکت انتقاد می کردند بازیابی نمی کند.

OpenAI در بیانیه ای اذعان کرد که بحث عمومی در مورد هوش مصنوعی پیشرفته ضروری است. لیندزی هلد، سخنگوی OpenAI به نیویورک تایمز گفت: «ما به سابقه خود در ارائه بهترین و ایمن‌ترین سیستم‌های هوش مصنوعی افتخار می‌کنیم و به رویکرد علمی خود برای مدیریت ریسک اعتقاد داریم. ما موافقیم که بحث های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به همکاری با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد. » OpenAI از ارائه توضیحات بیشتر به TIME در مورد ادعاهای این داستان خودداری کرد. Google DeepMind به طور عمومی در مورد این نامه سرگشاده اظهار نظر نکرده و به درخواست TIME برای اظهار نظر پاسخی نداده است.

اما در مصاحبه با تایم، دو کارمند سابق OpenAI – کوکوتاجلو، که در تیم مدیریت شرکت کار می‌کرد، و ساندرز، محقق تیم سوپرهمترازی – گفتند که در حتی فراتر از توافق‌نامه‌های عدم تحقیر، توافق‌نامه‌های محرمانه تعریف شده در آزمایشگاه‌های اصلی هوش مصنوعی انجام شد. برای کارمندان خطرناک است که به طور عمومی در مورد نگرانی های خود صحبت کنند. هر دو گفتند که انتظار دارند قابلیت‌های سیستم‌های هوش مصنوعی در سال‌های آینده به میزان قابل توجهی افزایش یابد و این تغییرات تأثیرات اساسی بر جامعه خواهد داشت. کوکوتاجلو می گوید: “مخاطرات فوق العاده زیاد است.”

در صنایع تحت نظارت، مانند امور مالی، افشاگران هنگام گزارش تخلفات مختلف از قانون، از حمایت دولت ایالات متحده برخوردار می شوند و حتی می توانند انتظار کاهش در برخی جریمه ها را داشته باشند. اما از آنجایی که قوانین خاصی در مورد توسعه پیشرفته هوش مصنوعی وجود ندارد، افشاگران در بخش هوش مصنوعی از چنین حمایت‌هایی بهره نمی‌برند و در صورت شکستن قراردادهای عدم افشا یا عدم تحقیر ممکن است خود در معرض خطرات قانونی قرار گیرند. کوکوتاجلو توضیح می‌دهد: «حفاظت‌های از قبل برای افشاگران در اینجا اعمال نمی‌شود، زیرا این صنعت واقعاً تنظیم نشده است، بنابراین هیچ قانونی در مورد بسیاری از کارهای بالقوه خطرناکی که شرکت‌ها می‌توانند انجام دهند، وجود ندارد.

ساندرز می گوید: «آزمایشگاه های AGI به هیچکس پاسخگو نیست. «پاسخگویی مستلزم آن است که اگر سازمانی کار اشتباهی انجام دهد، اطلاعات مربوط به آن را بتوان به اشتراک گذاشت. و در حال حاضر، این مورد نیست.

زمانی که او در سال 2021 به OpenAI پیوست، ساندرز گفت که امیدوار است شرکت را با یک سری سوالات دشوار دست و پنجه نرم کند: “اگر ماشینی وجود دارد که بتواند کارهای جالب اقتصادی را که شما انجام می دهید انجام دهد، در واقع چقدر قدرت در یک ماشین دارید؟ شرکت؟ آیا اگر جایگزینی برای افراد شاغل وجود داشته باشد، آیا می توانیم جامعه ای دموکراتیک داشته باشیم؟ اما پس از انتشار ChatGPT در نوامبر 2022، OpenAI شروع به تبدیل شدن به یک شرکت بسیار متفاوت کرد. در نهایت ارزش آن به ده ها میلیارد دلار رسید و مدیران آن در رقابتی برای شکست دادن رقبا شرکت کردند. به گفته او، سؤالاتی که ساندرز امیدوار بود OpenAI با آنها دست و پنجه نرم کند، اکنون به نظر می رسد “تأخیر افتاده است و برای عرضه محصول جدید براق بعدی عقب افتاده است.”

در این نامه سرگشاده، ساندرز، کوکوتاجلو و سایر کارکنان فعلی و سابق از آزمایشگاه‌های هوش مصنوعی می‌خواهند که از درخواست کارمندان خود برای امضای قراردادهای عدم تحقیر خودداری کنند. ایجاد فرآیندی برای کارمندان برای مطرح کردن نگرانی های خود با اعضای هیئت مدیره، تنظیم کننده ها و گروه های ناظر. و “فرهنگ انتقاد باز” را پرورش دهید. در نامه سرگشاده آمده است که اگر یک افشاگر پس از تلاش ناموفق برای مطرح کردن نگرانی‌ها از طریق این کانال‌ها، علنی شود، شرکت‌های هوش مصنوعی باید متعهد شوند که علیه آنها تلافی نکنند.

حداقل یک کارمند فعلی OpenAI از نامه سرگشاده در رسانه های اجتماعی انتقاد کرد و استدلال کرد که کارمندانی که در مورد ترس های امنیتی خود به طور عمومی صحبت می کنند، رسیدگی به مسائل بسیار حساس را برای آزمایشگاه ها دشوارتر می کند. جاشوا آچیام، دانشمند پژوهشی در OpenAI، در مقاله‌ای در این باره می‌نویسد: «اگر می‌خواهید امنیت در OpenAI به طور مؤثر کار کند، باید یک پایه اساسی اعتماد وجود داشته باشد که در آن هرکسی که با آن کار می‌کنیم باید بداند که اعتماد خود را حفظ خواهیم کرد. X، پلتفرمی که قبلاً با نام توییتر شناخته می شد. “این نامه شکاف بزرگی در آن پایه ها است.”

با این حال، این استدلال تا حدی به رفتار مسئولانه رهبران OpenAI بستگی دارد – چیزی که رویدادهای اخیر آن را زیر سوال برده است. ساندرز معتقد است که آلتمن، مدیر عامل شرکت، اساسا از پاسخگویی بیزار است. او می‌گوید: «من فکر می‌کنم به‌ویژه سام آلتمن، او از نظارت و مسئولیت‌پذیری بسیار ناراحت است. “من فکر می‌کنم که گویای این است که هر گروهی که احتمالاً می‌تواند بر او نظارت کند، از جمله هیئت مدیره و کمیته ایمنی و امنیت، سم آلتمن احساس می‌کند که باید شخصاً بخشی از آن باشد – و هیچ‌کس نمی‌تواند به او نه بگوید.”

(پس از اخراج آلتمن توسط هیئت مدیره سابق OpenAI در نوامبر گذشته، شرکت حقوقی WilmerHale تحقیقاتی در مورد شرایط انجام داد و به این نتیجه رسید که “رفتار او مستلزم برکناری او نیست.» هیئت مدیره جدید OpenAI متعاقباً “اطمینان کامل” را به رهبری آلتمن ابراز کرد. لری سامرز و برت تیلور، دو عضو جدید هیئت مدیره، اخیراً در این باره نوشتند: “ما متوجه شدیم. آقای آلتمن در مورد همه مسائل مربوطه بسیار باز است و همیشه با تیم مدیریتی خود همکار است.” اقتصاد دان.)

بیشتر بدانید: هزینه میلیارد دلاری ساخت هوش مصنوعی

برای ساندرز، پاسخگویی بسیار مهم است و اگر شرکت‌های هوش مصنوعی به تنهایی و بدون تنظیم‌کننده‌ها و نهادهای خارجی عمل کنند، وجود نخواهد داشت. او گفت: «اگر یک توسعه‌دهنده AGI می‌خواهید که واقعاً در راستای منافع عمومی عمل کند و به ایده‌آل ایجاد یک AGI ایمن و سودمند عمل کند، باید سیستم‌های نظارتی و پاسخگویی وجود داشته باشد که واقعاً «سازمان را به این ایده‌آل» حفظ کند. . گفت. و سپس، در یک دنیای ایده آل، مهم نیست که چه کسی بر صندلی مدیر عامل است. اگر دنیا باید تصمیم بگیرد که کدام یک از این مدیران شرکت‌های هوش مصنوعی بهترین شخصیت اخلاقی را دارند، بسیار مشکل‌ساز است. این یک وضعیت ایده آل نیست.

دیدگاهتان را بنویسید