شرکت OpenAI روز دوشنبه اطلاعات جدیدی منتشر کرد که نشان می‌دهد چه تعداد از کاربران ChatGPT با مشکلات سلامت روان دست و پنجه نرم می‌کنند و در این مورد با این ربات گفتگو می‌کنند. به گفته این شرکت، در یک هفته مشخص، ۰.۱۵ درصد از کاربران فعال ChatGPT «مکالماتی دارند که شامل نشانه‌های صریح برنامه‌ریزی یا قصد خودکشی احتمالی است». با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این رقم معادل بیش از یک میلیون نفر در هفته است.

این شرکت می‌گوید درصد مشابهی از کاربران «سطوح بالایی از وابستگی عاطفی به ChatGPT» را نشان می‌دهند و صدها هزار نفر علائم روان‌پریشی یا شیدایی را در مکالمات هفتگی خود با این ربات هوش مصنوعی نشان می‌دهند.

OpenAI می‌گوید این نوع مکالمات در ChatGPT «بسیار نادر» است و از این رو اندازه‌گیری آن دشوار است. با این حال، OpenAI تخمین می‌زند که این مسائل هر هفته بر صدها هزار نفر تأثیر می‌گذارد.

OpenAI این اطلاعات را به عنوان بخشی از یک اطلاعیه گسترده‌تر در مورد تلاش‌های اخیر خود برای بهبود نحوه پاسخگویی مدل‌ها به کاربرانی که مشکلات سلامت روان دارند، به اشتراک گذاشت. این شرکت ادعا می‌کند که آخرین کار خود بر روی ChatGPT شامل مشورت با بیش از ۱۷۰ متخصص بهداشت روان بوده است. OpenAI می‌گوید این پزشکان مشاهده کرده‌اند که آخرین نسخه ChatGPT «به طور مناسب‌تر و سازگارتر از نسخه‌های قبلی پاسخ می‌دهد».

در ماه‌های اخیر، چندین داستان روشن کرده‌اند که چگونه ربات‌های گفتگوی هوش مصنوعی می‌توانند اثرات نامطلوبی بر کاربرانی که با چالش‌های سلامت روان دست و پنجه نرم می‌کنند، داشته باشند. محققان قبلاً دریافته‌اند که ربات‌های گفتگوی هوش مصنوعی می‌توانند برخی از کاربران را به سمت توهمات خطرناک سوق دهند، عمدتاً با تقویت باورهای خطرناک از طریق رفتارهای چاپلوسانه.

پرداختن به نگرانی‌های مربوط به سلامت روان در ChatGPT به سرعت در حال تبدیل شدن به یک مسئله اساسی برای OpenAI است. این شرکت در حال حاضر توسط والدین یک پسر ۱۶ ساله تحت تعقیب قضایی قرار دارد که در هفته‌های منتهی به خودکشی خود، افکار خودکشی خود را با ChatGPT در میان گذاشته بود. دادستان‌های کل ایالت‌های کالیفرنیا و دلاور – که می‌توانند مانع از بازسازی برنامه‌ریزی شده شرکت شوند – نیز به OpenAI هشدار داده‌اند که باید از جوانانی که از محصولات آن‌ها استفاده می‌کنند محافظت کند.

در اوایل آبان ماه، مدیرعامل OpenAI، سم آلتمن، در پستی در شبکه اجتماعی X ادعا کرد که این شرکت “قادر به کاهش مشکلات جدی سلامت روان” در ChatGPT بوده است، اگرچه جزئیاتی ارائه نکرد. به نظر می‌رسد داده‌های به اشتراک گذاشته شده در روز دوشنبه، شاهدی بر این ادعا باشد، اگرچه مسائل گسترده‌تری را در مورد میزان شیوع این مشکل مطرح می‌کند. با این وجود، آلتمن گفت OpenAI برخی از محدودیت‌ها را کاهش می‌دهد و حتی به کاربران بزرگسال اجازه می‌دهد مکالمات شهوانی را با ربات هوش مصنوعی شروع کنند.

در اطلاعیه روز دوشنبه، OpenAI ادعا می‌کند که نسخه به روز شده اخیر GPT-5 تقریباً ۶۵٪ بیشتر از نسخه قبلی، پاسخ‌های “مطلوبی” به مسائل مربوط به سلامت روان می‌دهد. OpenAI می‌گوید در یک ارزیابی که پاسخ‌های هوش مصنوعی را در مورد مکالمات خودکشی آزمایش می‌کند، مدل جدید GPT-5 با ۹۱٪ رفتارهای مطلوب شرکت مطابقت دارد، در حالی که این رقم برای مدل قبلی GPT-5، ۷۷٪ بود.

این شرکت همچنین می‌گوید آخرین نسخه GPT-5 در مکالمات طولانی نیز بهتر از محافظت‌های OpenAI محافظت می‌کند. OpenAI قبلاً اعلام کرده بود که محافظت‌های آن در مکالمات طولانی کمتر مؤثر است.

OpenAI می‌گوید علاوه بر این تلاش‌ها، ارزیابی‌های جدیدی را برای اندازه‌گیری برخی از جدی‌ترین چالش‌های سلامت روان که کاربران ChatGPT با آن روبرو هستند، اضافه می‌کند. این شرکت می‌گوید آزمایش ایمنی اولیه برای مدل‌های هوش مصنوعی اکنون شامل معیارهایی برای وابستگی عاطفی و فوریت‌های بهداشت روان غیر خودکشی خواهد بود.

OpenAI همچنین اخیراً کنترل‌های بیشتری را برای والدین کودکانی که از ChatGPT استفاده می‌کنند، ارائه کرده است. این شرکت می‌گوید در حال ساخت یک سیستم پیش‌بینی سن برای شناسایی خودکار کودکانی است که از ChatGPT استفاده می‌کنند و اعمال مجموعه سخت‌گیرانه‌تری از محافظت‌ها را در دستور کار قرار می‌دهد.

با این حال، هنوز مشخص نیست که چالش‌های سلامت روان در مورد ChatGPT چقدر پایدار خواهد بود. در حالی که به نظر می‌رسد GPT-5 از نظر ایمنی نسبت به مدل‌های هوش مصنوعی قبلی پیشرفت داشته است، اما هنوز هم به نظر می‌رسد بخشی از پاسخ‌های ChatGPT وجود دارد که OpenAI آن‌ها را “نامطلوب” می‌داند. OpenAI همچنین هنوز مدل‌های هوش مصنوعی قدیمی‌تر و کم‌خطرتر خود، از جمله GPT-4o را برای میلیون‌ها مشترک پولی خود در دسترس قرار می‌دهد.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *