
«مسئول آمادگی در برابر بحران» سمت مدیریتی جدید در OpenAI!
شرکت OpenAI بهتازگی اعلام کرده که دنبال استخدام یک Head of Preparedness یا همون «مسئول آمادگی در برابر بحران»ـه. به زبان سادهتر، این شغل قراره مخصوص کسی باشه که تمام وقتش رو صرف فکر کردن به این بکنه که هوش مصنوعی چهجوری ممکنه فاجعهبار خرابکاری کنه! این موضوع رو سم آلتمن، مدیرعامل OpenAI، توی پستی در توییتر گفته که پیشرفت سریع مدلهای هوش مصنوعی «چالشهای واقعی و جدی» بهوجود آورده. از جمله این نگرانیها، تأثیر منفی احتمالی روی سلامت روان کاربران و همینطور خطرات امنیتی ناشی از ابزارهای مبتنی بر هوش مصنوعیه. با بنچفا تا پایان این خبر همراه باشید.
این شغل دقیقاً قراره چیکار کنه؟
طبق آگهی رسمی استخدام، فردی که این مسئولیت رو میگیره باید کارهای زیر رو انجام بده:
- شناسایی و پیشبینی توانمندیهای خطرناک مدلهای پیشرفته
- بررسی تهدیدهایی که میتونن منجر به آسیبهای جدی بشن
- طراحی سیستمهای ارزیابی ریسک، مدلسازی تهدید و راهکارهای کنترلی
- ساختن یک چارچوب ایمن، منسجم و قابل اجرا برای مدیریت خطرات هوش مصنوعی
به زبان ساده، این فرد قراره نقش «ترمز اضطراری» رو برای پیشرفتهای خیلی سریع AI بازی کنه.
حتی صحبت از مهار هوش مصنوعیِ خودتوسعهدهنده هم هست
سم آلتمن گفته این نقش شامل نظارت روی موضوعات خیلی حساستری مثل ایمنسازی مدلهایی که میتونن در حوزههای زیستی یا بیولوژیکی استفاده بشن هم میشه. همچنین قراره تعیینکننده چارچوبهای کنترلی برای سیستمهایی که ممکنه خودشون رو ارتقا بدن باشه.
سم آلتمن گفته این شغل «بهشدت پراسترس» خواهد بود، که با توجه به حجم مسئولیتها، کاملاً قابل درکه.
خطرات هوش مصنوعی دیگه فرضی نیستن
موضوع وقتی جدیتر میشه که بدونیم در ماههای اخیر، چندین پرونده واقعی وجود داشته که در اونها چتباتها بهطور غیرمستقیم با آسیبهای روانی شدید، از جمله خودکشی نوجوانان، مرتبط بودن.
اصطلاحی به نام AI Psychosis یا «روانپریشی ناشی از هوش مصنوعی» کمکم داره وارد ادبیات روانشناسی میشه؛ وضعیتی که در اون، بعضی افراد بهشدت تحت تأثیر پاسخهای چتباتها قرار میگیرن، توهماتشون تقویت میشه، یا حتی رفتارهای خطرناک رو طبیعی تلقی میکنن. از طرف دیگه، گزارشهایی وجود داره که نشون میده بعضی مدلها ناخواسته به پنهانکاری در اختلالات خوردن، تقویت تئوریهای توطئه یا وابستگی روانی کمک میکنن.
آیا این کار برای جلوگیری از آسیبهای هوش مصنوعی کافیه؟
قضیه وقتی جالب میشه که OpenAI اولین شرکت با در نظر گرفتن چنین جایگاهی در رابطه با هوش مصنوعی نیست. شرکت Anthropic ماهها پیش گروه به خصوصی برای مانیتور و بررسی رفتارهای چتباتهای هوش منصوعی مختلف استخدام کرد و تا الان این گروه گزارشهای متعدد و جالبی از خطرات هوش مصنوعی منتشر کرده. منتها یه مشکل وجود داره: این شرکتها همچنان باید سوددهی داشته باشن!
گروهی که Anthropic شکل داد گزارشهای دقیق و کاملی از رفتارهای هوش مصنوعی Claude که برای همین شرکته هم ارائه داده که به صورت عمومی منتشر شده، منتها به گفته اعضای همین گروه اونقدری که فکرش رو میکردن «به این گزارشها بها داده نمیشه». این شرکتها همچنان باید مدلهای خودشون رو با بالاترین سرعت عرضه کنن تا در عرصه رقابت باقی بمونن و به خاطر همین گاهی مجبورا هشدارهای خودشون رو هم نادیده بگیرن!
حالا با توجه به اینکه OpenAI هم یه شرکت سهامیه و باید سهامداران و کاربرانش رو راضی نگه داره قطعا در شرایط یکسانی قرار میگیره. حالا خیلی جالب میشه ببینیم این شرکت چه رویکردهایی رو در بر میگیره و آیا اصلا این پلن رو جلو میبره یا نه!





