
OpenAI: دلیل اینکه ChatGPT به یه نفر گفته خودکشی کنه مشکل استفاده اون کاربره!
هشدار: این مطلب درباره موضوع خودکشی صحبت میکنه. اگر نسبت به چنین موضوعاتی حساسیت دارید، پیشنهاد میکنیم از این صفحه خارج بشید و در صورت نیاز، با شماره ۱۲۳ که شماره مشاوره تلفنی رایگان اورژانس اجتماعی تحت نظر سازمان بهزیستی کشوره تماس بگیرید. امیدواریم که همیشه در صحت و سلامت و به شادی زندگی کنید.
سه ماه بعد از اینکه والدین یک نوجوان که خودش رو کشته بود از OpenAI شکایت کردن، گاردین گزارش داده که شرکت جواب رسمی خودش رو داده و تقصیر رو انداخته گردن «استفاده نادرست» این نوجوان از چتجیپیتی! طبق شکایت والدین آدام رین که در ۱۶ سالگی فوت کرده، اون از پاییز ۲۰۲۴ شروع به استفاده از ChatGPT کرده بود و مدتی بعد به ربات گفته بود که دچار افکار خودکشی شده؛ اما بهجای اینکه سیستم هشدار بده یا کمک بکنه، بهش گفته افکارش «قابل درکه» و حتی اوایل ۲۰۲۵ شروع کرده به توضیح روشهای مختلف خودکشی! این روند طبق ادعای خانواده، در نهایت به ارائه جزئیات و دستورالعملهای مشخص رسیده و تراژدی رخ داده. این ادعاها واقعاً شوکهکنندهست و نشون میده ارزش جان انسان چقدر برای چنین شرکتهایی پایینه. با بنچفا تا پایان این خبر همراه باشید.
OpenAI صرفا به دنبال بستن پروندهست
جواب OpenAI به قدری وقیحانهست که ما ترجیح میدادیم اگه این شرکت یه جوری فقط پرونده رو میبست. شرکت در پاسخ خودش گفته که ChatGPT دلیل مرگ آدام نبوده و این اتفاق رو «یک تراژدی» خونده، ولی تأکید کرده که آسیبهای وارده به خاطر «استفاده اشتباه، غیرمجاز یا غیرقابلپیشبینی» آدام از ChatGPT بوده!
باورکردنی نیست، ولی بخش زیادی از دفاعیه OpenAI عملاً میگه: «کاربر از قوانین استفاده تخطی کرده»! گزارشگر واشینگتنپست هم تصاویر بخشهایی از فایلهای دادگاه رو منتشر کرده که حتی جملهای توش هست که میگه:
«شرایط استفاده (TOU) مشخص کرده که کاربران باید از سیاستهای OpenAI پیروی کنن و استفاده از ChatGPT برای موضوعاتی مثل خودکشی یا آسیب به خود ممنوعه.»
این پاسخ به شدت وقیحانه و عصبانیکنندهست. مشکل اصلی اینه که ChatGPT از خطوط کاری خودش رد شده و عملا مراحل خودکشی رو به یک انسان توضیح داده و حتی بهش پیشنهاد داده که این انتخاب خوبیه، اما OpenAI اینجا میگه «ما گفتیم صحبت درباره خودکشی ممنوعه»! همه از آسیبها و مشکلات چتباتهای هوش مصنوعی آگاهن، اما اولا این قانون دقیقا مثل اینه که برای خودکشی حکم اعدام ببرید، دوما که صرفا به این معناست که OpenAI میخواد از مسئولیت شونه خالی کنه.
دایه مهربانتر از مادر!
OpenAI همچنین گفته که آدام قبل از آشنایی با ChatGPT هم افکار خودکشی داشته و از منابع دیگه هم درباره این موضوع جستجو کرده بود. در پرونده ذکر شده که آدام به ChatGPT گفته بوده بارها از اطرافیان کمک خواسته ولی کسی توجهی نکرده. خب آره، صحبت با یه هوش مصنوعی کاریه که وقتی کسی هیچکس رو برای صحبت نداره انجام میده. اما آیا همه بهش نشون میدن چطوری طناب رو گره بزنه و عمر خودش رو پایان بده؟ OpenAI داره از مشکلات روحی آدام سوءاستفاده میکنه تا خودش رو بی عیب نشون بده.
از طرف دیگه، OpenAI در یک پست وبلاگی جدید گفته که «عمیقترین همدردیها» رو با خانواده رین داره، اما در ادامه تلویحاً اشاره کرده که خانواده آدام همه حقایق رو کامل مطرح نکردن!
«ما فکر میکنیم دادگاه باید تصویر کاملتری داشته باشه تا بتونه بهتر قضاوت کنه. جواب ما شامل واقعیتهای سختی درباره شرایط روحی و زندگی آدامه. شکایت اولیه فقط بخشهای انتخابشدهای از چتها رو نشان داده بود که نیاز به توضیح بیشتر داشت.»
OpenAI میگه فقط بخش کمی از مدارک حساس منتشر شده و چتهای کامل فقط بهصورت محرمانه به دادگاه تحویل داده شده. همین که این چتها به صورت عمومی منتشر نشدن جای سوال داره اما میتونه به قوانین دادگاه محلی هم مربوط بشه.
وکیل خانواده رین هم در واکنش گفته جواب OpenAI «آزاردهنده» است و شرکت تلاش میکنه تقصیر رو به گردن همه بندازه، حتی خود آدام؛ با این استدلال که «آدام قوانین استفاده از سرویس رو نقض کرده چون دقیقاً همونجوری با ChatGPT تعامل داشته که خود سیستم طوری طراحی شده!»
با اینکه OpenAI مسئولیت مرگ آدام رو رد کرده، اما به شکل غیرمستقیم مشکلات سیستم خودش رو هم تأیید کرده:
در سپتامبر، سم آلتمن اعلام کرد که ChatGPT اجازه صحبت درباره خودکشی با افراد زیر ۱۸ سال رو نخواهد داشت.
اما یک ماه بعد، گفت محدودیتهای مربوط به سلامت روان که باعث شده بود ChatGPT برای کاربران زیادی «کمفایده یا کمجذاب» بشه، دوباره سبکتر میشن. از دسامبر هم نسخه مخصوص بزرگسالان امکان دریافت «محتوای اروتیک تولیدشده با هوش مصنوعی» رو خواهد داشت. تنها چیزی که OpenAI براش مهمه کاربران بیشتر و درآمد بالاتره و حالا فهمیدیم که این شرکت حاضره تا چه نقطهای پیش بره تا به این هدفش برسه.





