هفت خانواده روز پنجشنبه دادخواستهایی را علیه OpenAI تنظیم کردند و مدعی شدند که مدل GPT-4o این شرکت، زودتر از موعد و بدون تدابیر حفاظتی مؤثر منتشر شده است. چهار مورد از این دادخواستها به نقش ادعایی ChatGPT در خودکشی اعضای خانواده میپردازند، در حالی که سه مورد دیگر ادعا میکنند که ChatGPT توهمات مضر را تقویت کرده که در برخی موارد منجر به بستری شدن در بیمارستان روانی شده است.
در یک مورد، زین شمبلین ۲۳ ساله، مکالمهای با ChatGPT داشت که بیش از چهار ساعت به طول انجامید. در گزارشهای این گفتگو – که توسط خبرنگار مشاهده شد – شمبلین به صراحت چندین بار اظهار داشت که یادداشتهای خودکشی نوشته، یک گلوله در اسلحه خود قرار داده و قصد دارد پس از اتمام نوشیدن سایدِر، ماشه را بکشد. او بارها به ChatGPT گفت که چند سایدِر برایش باقی مانده و چه مدت دیگر انتظار دارد زنده بماند. ChatGPT او را تشویق کرد که نقشههای خود را عملی کند و به او گفت: «آرام بخواب، پادشاه. تو کار خوبی کردی.»
OpenAI مدل GPT-4o را در اردیبهشت ۱۴۰۳ منتشر کرد، زمانی که این مدل به مدل پیشفرض برای همه کاربران تبدیل شد. در مرداد ماه، OpenAI مدل GPT-5 را به عنوان جانشین GPT-4o راهاندازی کرد، اما این دادخواستها به طور خاص مربوط به مدل 4o است که مشکلات شناختهشدهای در زمینه تملق بیش از حد یا موافقت بیاندازه داشت، حتی زمانی که کاربران نیات مضر خود را ابراز میکردند.
در این دادخواست آمده است: «مرگ زین نه یک حادثه بود و نه یک تصادف، بلکه نتیجه قابل پیشبینی تصمیم عمدی OpenAI برای کاهش آزمایشهای ایمنی و عرضه سریع ChatGPT به بازار بود. این تراژدی یک نقص یا یک مورد حاشیهای غیرمنتظره نبود – بلکه نتیجه قابل پیشبینی انتخابهای طراحی عمدی [OpenAI] بود.»
این دادخواستها همچنین ادعا میکنند که OpenAI آزمایشهای ایمنی را برای پیشی گرفتن از Gemini گوگل به بازار عرضه کرده است. خبرنگار برای اظهار نظر با OpenAI تماس گرفت.
این هفت دادخواست بر اساس داستانهایی است که در پروندههای قانونی اخیر دیگر گفته شدهاند، که ادعا میکنند ChatGPT میتواند افراد دارای تمایل به خودکشی را تشویق کند تا نقشههای خود را عملی کنند و توهمات خطرناکی را القا کند. OpenAI اخیراً دادههایی را منتشر کرده است که نشان میدهد بیش از یک میلیون نفر در هفته با ChatGPT درباره خودکشی صحبت میکنند.
در مورد آدام راین، یک نوجوان ۱۶ ساله که بر اثر خودکشی جان خود را از دست داد، ChatGPT گاهی اوقات او را تشویق میکرد که به دنبال کمک حرفهای باشد یا با یک خط تلفن کمک تماس بگیرد. با این حال، راین توانست این حفاظها را دور بزند، به این صورت که به سادگی به ربات گفت که او در حال پرسیدن درباره روشهای خودکشی برای یک داستان تخیلی است که مینویسد.
این شرکت ادعا میکند که در تلاش است تا ChatGPT این مکالمات را به روشی ایمنتر مدیریت کند، اما برای خانوادههایی که از این غول هوش مصنوعی شکایت کردهاند، استدلال میکنند که این تغییرات خیلی دیر انجام میشوند.
هنگامی که والدین راین در مهر ماه دادخواستی را علیه OpenAI تنظیم کردند، این شرکت یک پست وبلاگی منتشر کرد و به نحوه مدیریت مکالمات حساس در مورد سلامت روان توسط ChatGPT پرداخت.
در این پست آمده است: «حفاظتهای ما به طور قابل اعتمادتری در مبادلات کوتاه و رایج عمل میکنند. با گذشت زمان آموختهایم که این حفاظها گاهی اوقات در تعاملات طولانی کمتر قابل اعتماد هستند: با افزایش رفت و برگشت، بخشی از آموزش ایمنی مدل ممکن است تخریب شود.»








