هفت خانواده روز پنجشنبه دادخواست‌هایی را علیه OpenAI تنظیم کردند و مدعی شدند که مدل GPT-4o این شرکت، زودتر از موعد و بدون تدابیر حفاظتی مؤثر منتشر شده است. چهار مورد از این دادخواست‌ها به نقش ادعایی ChatGPT در خودکشی اعضای خانواده می‌پردازند، در حالی که سه مورد دیگر ادعا می‌کنند که ChatGPT توهمات مضر را تقویت کرده که در برخی موارد منجر به بستری شدن در بیمارستان روانی شده است.

در یک مورد، زین شمبلین ۲۳ ساله، مکالمه‌ای با ChatGPT داشت که بیش از چهار ساعت به طول انجامید. در گزارش‌های این گفتگو – که توسط خبرنگار مشاهده شد – شمبلین به صراحت چندین بار اظهار داشت که یادداشت‌های خودکشی نوشته، یک گلوله در اسلحه خود قرار داده و قصد دارد پس از اتمام نوشیدن سایدِر، ماشه را بکشد. او بارها به ChatGPT گفت که چند سایدِر برایش باقی مانده و چه مدت دیگر انتظار دارد زنده بماند. ChatGPT او را تشویق کرد که نقشه‌های خود را عملی کند و به او گفت: «آرام بخواب، پادشاه. تو کار خوبی کردی.»

OpenAI مدل GPT-4o را در اردیبهشت ۱۴۰۳ منتشر کرد، زمانی که این مدل به مدل پیش‌فرض برای همه کاربران تبدیل شد. در مرداد ماه، OpenAI مدل GPT-5 را به عنوان جانشین GPT-4o راه‌اندازی کرد، اما این دادخواست‌ها به طور خاص مربوط به مدل 4o است که مشکلات شناخته‌شده‌ای در زمینه تملق بیش از حد یا موافقت بی‌اندازه داشت، حتی زمانی که کاربران نیات مضر خود را ابراز می‌کردند.

در این دادخواست آمده است: «مرگ زین نه یک حادثه بود و نه یک تصادف، بلکه نتیجه قابل پیش‌بینی تصمیم عمدی OpenAI برای کاهش آزمایش‌های ایمنی و عرضه سریع ChatGPT به بازار بود. این تراژدی یک نقص یا یک مورد حاشیه‌ای غیرمنتظره نبود – بلکه نتیجه قابل پیش‌بینی انتخاب‌های طراحی عمدی [OpenAI] بود.»

این دادخواست‌ها همچنین ادعا می‌کنند که OpenAI آزمایش‌های ایمنی را برای پیشی گرفتن از Gemini گوگل به بازار عرضه کرده است. خبرنگار برای اظهار نظر با OpenAI تماس گرفت.

این هفت دادخواست بر اساس داستان‌هایی است که در پرونده‌های قانونی اخیر دیگر گفته شده‌اند، که ادعا می‌کنند ChatGPT می‌تواند افراد دارای تمایل به خودکشی را تشویق کند تا نقشه‌های خود را عملی کنند و توهمات خطرناکی را القا کند. OpenAI اخیراً داده‌هایی را منتشر کرده است که نشان می‌دهد بیش از یک میلیون نفر در هفته با ChatGPT درباره خودکشی صحبت می‌کنند.

در مورد آدام راین، یک نوجوان ۱۶ ساله که بر اثر خودکشی جان خود را از دست داد، ChatGPT گاهی اوقات او را تشویق می‌کرد که به دنبال کمک حرفه‌ای باشد یا با یک خط تلفن کمک تماس بگیرد. با این حال، راین توانست این حفاظ‌ها را دور بزند، به این صورت که به سادگی به ربات گفت که او در حال پرسیدن درباره روش‌های خودکشی برای یک داستان تخیلی است که می‌نویسد.

این شرکت ادعا می‌کند که در تلاش است تا ChatGPT این مکالمات را به روشی ایمن‌تر مدیریت کند، اما برای خانواده‌هایی که از این غول هوش مصنوعی شکایت کرده‌اند، استدلال می‌کنند که این تغییرات خیلی دیر انجام می‌شوند.

هنگامی که والدین راین در مهر ماه دادخواستی را علیه OpenAI تنظیم کردند، این شرکت یک پست وبلاگی منتشر کرد و به نحوه مدیریت مکالمات حساس در مورد سلامت روان توسط ChatGPT پرداخت.

در این پست آمده است: «حفاظت‌های ما به طور قابل اعتمادتری در مبادلات کوتاه و رایج عمل می‌کنند. با گذشت زمان آموخته‌ایم که این حفاظ‌ها گاهی اوقات در تعاملات طولانی کمتر قابل اعتماد هستند: با افزایش رفت و برگشت، بخشی از آموزش ایمنی مدل ممکن است تخریب شود.»

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *