شرکت OpenAI روز دوشنبه اطلاعات جدیدی منتشر کرد که نشان میدهد چه تعداد از کاربران ChatGPT با مشکلات سلامت روان دست و پنجه نرم میکنند و در این مورد با این ربات گفتگو میکنند. به گفته این شرکت، در یک هفته مشخص، ۰.۱۵ درصد از کاربران فعال ChatGPT «مکالماتی دارند که شامل نشانههای صریح برنامهریزی یا قصد خودکشی احتمالی است». با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این رقم معادل بیش از یک میلیون نفر در هفته است.
این شرکت میگوید درصد مشابهی از کاربران «سطوح بالایی از وابستگی عاطفی به ChatGPT» را نشان میدهند و صدها هزار نفر علائم روانپریشی یا شیدایی را در مکالمات هفتگی خود با این ربات هوش مصنوعی نشان میدهند.
OpenAI میگوید این نوع مکالمات در ChatGPT «بسیار نادر» است و از این رو اندازهگیری آن دشوار است. با این حال، OpenAI تخمین میزند که این مسائل هر هفته بر صدها هزار نفر تأثیر میگذارد.
OpenAI این اطلاعات را به عنوان بخشی از یک اطلاعیه گستردهتر در مورد تلاشهای اخیر خود برای بهبود نحوه پاسخگویی مدلها به کاربرانی که مشکلات سلامت روان دارند، به اشتراک گذاشت. این شرکت ادعا میکند که آخرین کار خود بر روی ChatGPT شامل مشورت با بیش از ۱۷۰ متخصص بهداشت روان بوده است. OpenAI میگوید این پزشکان مشاهده کردهاند که آخرین نسخه ChatGPT «به طور مناسبتر و سازگارتر از نسخههای قبلی پاسخ میدهد».
در ماههای اخیر، چندین داستان روشن کردهاند که چگونه رباتهای گفتگوی هوش مصنوعی میتوانند اثرات نامطلوبی بر کاربرانی که با چالشهای سلامت روان دست و پنجه نرم میکنند، داشته باشند. محققان قبلاً دریافتهاند که رباتهای گفتگوی هوش مصنوعی میتوانند برخی از کاربران را به سمت توهمات خطرناک سوق دهند، عمدتاً با تقویت باورهای خطرناک از طریق رفتارهای چاپلوسانه.
پرداختن به نگرانیهای مربوط به سلامت روان در ChatGPT به سرعت در حال تبدیل شدن به یک مسئله اساسی برای OpenAI است. این شرکت در حال حاضر توسط والدین یک پسر ۱۶ ساله تحت تعقیب قضایی قرار دارد که در هفتههای منتهی به خودکشی خود، افکار خودکشی خود را با ChatGPT در میان گذاشته بود. دادستانهای کل ایالتهای کالیفرنیا و دلاور – که میتوانند مانع از بازسازی برنامهریزی شده شرکت شوند – نیز به OpenAI هشدار دادهاند که باید از جوانانی که از محصولات آنها استفاده میکنند محافظت کند.
در اوایل آبان ماه، مدیرعامل OpenAI، سم آلتمن، در پستی در شبکه اجتماعی X ادعا کرد که این شرکت “قادر به کاهش مشکلات جدی سلامت روان” در ChatGPT بوده است، اگرچه جزئیاتی ارائه نکرد. به نظر میرسد دادههای به اشتراک گذاشته شده در روز دوشنبه، شاهدی بر این ادعا باشد، اگرچه مسائل گستردهتری را در مورد میزان شیوع این مشکل مطرح میکند. با این وجود، آلتمن گفت OpenAI برخی از محدودیتها را کاهش میدهد و حتی به کاربران بزرگسال اجازه میدهد مکالمات شهوانی را با ربات هوش مصنوعی شروع کنند.
در اطلاعیه روز دوشنبه، OpenAI ادعا میکند که نسخه به روز شده اخیر GPT-5 تقریباً ۶۵٪ بیشتر از نسخه قبلی، پاسخهای “مطلوبی” به مسائل مربوط به سلامت روان میدهد. OpenAI میگوید در یک ارزیابی که پاسخهای هوش مصنوعی را در مورد مکالمات خودکشی آزمایش میکند، مدل جدید GPT-5 با ۹۱٪ رفتارهای مطلوب شرکت مطابقت دارد، در حالی که این رقم برای مدل قبلی GPT-5، ۷۷٪ بود.
این شرکت همچنین میگوید آخرین نسخه GPT-5 در مکالمات طولانی نیز بهتر از محافظتهای OpenAI محافظت میکند. OpenAI قبلاً اعلام کرده بود که محافظتهای آن در مکالمات طولانی کمتر مؤثر است.
OpenAI میگوید علاوه بر این تلاشها، ارزیابیهای جدیدی را برای اندازهگیری برخی از جدیترین چالشهای سلامت روان که کاربران ChatGPT با آن روبرو هستند، اضافه میکند. این شرکت میگوید آزمایش ایمنی اولیه برای مدلهای هوش مصنوعی اکنون شامل معیارهایی برای وابستگی عاطفی و فوریتهای بهداشت روان غیر خودکشی خواهد بود.
OpenAI همچنین اخیراً کنترلهای بیشتری را برای والدین کودکانی که از ChatGPT استفاده میکنند، ارائه کرده است. این شرکت میگوید در حال ساخت یک سیستم پیشبینی سن برای شناسایی خودکار کودکانی است که از ChatGPT استفاده میکنند و اعمال مجموعه سختگیرانهتری از محافظتها را در دستور کار قرار میدهد.
با این حال، هنوز مشخص نیست که چالشهای سلامت روان در مورد ChatGPT چقدر پایدار خواهد بود. در حالی که به نظر میرسد GPT-5 از نظر ایمنی نسبت به مدلهای هوش مصنوعی قبلی پیشرفت داشته است، اما هنوز هم به نظر میرسد بخشی از پاسخهای ChatGPT وجود دارد که OpenAI آنها را “نامطلوب” میداند. OpenAI همچنین هنوز مدلهای هوش مصنوعی قدیمیتر و کمخطرتر خود، از جمله GPT-4o را برای میلیونها مشترک پولی خود در دسترس قرار میدهد.








