اخبارهوش مصنوعی

«مسئول آمادگی در برابر بحران» سمت مدیریتی جدید در OpenAI!

شرکت OpenAI به‌تازگی اعلام کرده که دنبال استخدام یک Head of Preparedness یا همون «مسئول آمادگی در برابر بحران»ـه. به زبان ساده‌تر، این شغل قراره مخصوص کسی باشه که تمام وقتش رو صرف فکر کردن به این بکنه که هوش مصنوعی چه‌جوری ممکنه فاجعه‌بار خراب‌کاری کنه! این موضوع رو سم آلتمن، مدیرعامل OpenAI، توی پستی در توییتر گفته که پیشرفت سریع مدل‌های هوش مصنوعی «چالش‌های واقعی و جدی» به‌وجود آورده. از جمله این نگرانی‌ها، تأثیر منفی احتمالی روی سلامت روان کاربران و همین‌طور خطرات امنیتی ناشی از ابزارهای مبتنی بر هوش مصنوعیه. با بنچفا تا پایان این خبر همراه باشید.


این شغل دقیقاً قراره چیکار کنه؟

طبق آگهی رسمی استخدام، فردی که این مسئولیت رو می‌گیره باید کارهای زیر رو انجام بده:

  • شناسایی و پیش‌بینی توانمندی‌های خطرناک مدل‌های پیشرفته
  • بررسی تهدیدهایی که می‌تونن منجر به آسیب‌های جدی بشن
  • طراحی سیستم‌های ارزیابی ریسک، مدل‌سازی تهدید و راهکارهای کنترلی
  • ساختن یک چارچوب ایمن، منسجم و قابل اجرا برای مدیریت خطرات هوش مصنوعی

به زبان ساده، این فرد قراره نقش «ترمز اضطراری» رو برای پیشرفت‌های خیلی سریع AI بازی کنه.


حتی صحبت از مهار هوش مصنوعیِ خودتوسعه‌دهنده هم هست

سم آلتمن گفته این نقش شامل نظارت روی موضوعات خیلی حساس‌تری مثل ایمن‌سازی مدل‌هایی که می‌تونن در حوزه‌های زیستی یا بیولوژیکی استفاده بشن هم میشه. همچنین قراره تعیین‌کننده چارچوب‌های کنترلی برای سیستم‌هایی که ممکنه خودشون رو ارتقا بدن باشه.

سم آلتمن گفته این شغل «به‌شدت پراسترس» خواهد بود، که با توجه به حجم مسئولیت‌ها، کاملاً قابل درکه.


خطرات هوش مصنوعی دیگه فرضی نیستن

موضوع وقتی جدی‌تر می‌شه که بدونیم در ماه‌های اخیر، چندین پرونده واقعی وجود داشته که در اون‌ها چت‌بات‌ها به‌طور غیرمستقیم با آسیب‌های روانی شدید، از جمله خودکشی نوجوانان، مرتبط بودن.

اصطلاحی به نام AI Psychosis یا «روان‌پریشی ناشی از هوش مصنوعی» کم‌کم داره وارد ادبیات روانشناسی می‌شه؛ وضعیتی که در اون، بعضی افراد به‌شدت تحت تأثیر پاسخ‌های چت‌بات‌ها قرار می‌گیرن، توهماتشون تقویت می‌شه، یا حتی رفتارهای خطرناک رو طبیعی تلقی می‌کنن. از طرف دیگه، گزارش‌هایی وجود داره که نشون می‌ده بعضی مدل‌ها ناخواسته به پنهان‌کاری در اختلالات خوردن، تقویت تئوری‌های توطئه یا وابستگی روانی کمک می‌کنن.

آیا این کار برای جلوگیری از آسیب‌های هوش مصنوعی کافیه؟

قضیه وقتی جالب میشه که OpenAI اولین شرکت با در نظر گرفتن چنین جایگاهی در رابطه با هوش مصنوعی نیست. شرکت Anthropic ماه‌ها پیش گروه به خصوصی برای مانیتور و بررسی رفتارهای چت‌بات‌های هوش منصوعی مختلف استخدام کرد و تا الان این گروه گزارش‌های متعدد و جالبی از خطرات هوش مصنوعی منتشر کرده. منتها یه مشکل وجود داره:‌ این شرکت‌ها همچنان باید سوددهی داشته باشن!

گروهی که Anthropic شکل داد گزارش‌های دقیق و کاملی از رفتارهای هوش مصنوعی Claude که برای همین شرکته هم ارائه داده که به صورت عمومی منتشر شده، منتها به گفته اعضای همین گروه اونقدری که فکرش رو می‌کردن «به این گزارش‌ها بها داده نمیشه». این شرکت‌ها همچنان باید مدل‌های خودشون رو با بالاترین سرعت عرضه کنن تا در عرصه رقابت باقی بمونن و به خاطر همین گاهی مجبورا هشدارهای خودشون رو هم نادیده بگیرن!

حالا با توجه به اینکه OpenAI هم یه شرکت سهامیه و باید سهامداران و کاربرانش رو راضی نگه داره قطعا در شرایط یکسانی قرار می‌گیره. حالا خیلی جالب میشه ببینیم این شرکت چه رویکردهایی رو در بر می‌گیره و آیا اصلا این پلن رو جلو می‌بره یا نه!

این پست براتون مفید بود؟ خوشحال می‌شیم نظرتون رو بدونیم!

روی ستاره‌ها بزنید تا به این مطلب امتیاز بدید!

میانگین امتیاز این مطلب ۰ / ۵. تعداد امتیازات ۰

نظری برای این مطلب ثبت نشده! شما اولین نفری هستید که رای می‌دید!

محسن خدابخش

.Hello there من محسنم، با کلی علاقه که هیچ ربطی به هم ندارن. علاقه‌ام به گیم از 5 سالگی شروع شد و بیشتر فهمیدن درباره اینکه چطوری بازی‌ها اجرا میشن باعث شد به دنیای سخت افزار کامپیوتر وارد بشم. عاشق دنیاهای فیکشنال (مخصوصا استار وارز) هستم و تا الان زمان زیادی از زندگیم رو پای League of Legends هدر دادم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا