آدام رین شانزده ساله قبل از خودکشی، ماهها با ChatGPT درباره نقشههایش برای پایان دادن به زندگیاش مشورت کرده بود. حالا، والدین او اولین دادخواست مربوط به مرگ ناشی از سهلانگاری را علیه OpenAI ثبت کردهاند. نیویورک تایمز این خبر را گزارش داده است.
بسیاری از چتباتهای هوش مصنوعی که برای استفاده عموم طراحی شدهاند، طوری برنامهریزی شدهاند که اگر کاربری قصد آسیب رساندن به خود یا دیگران را ابراز کند، ویژگیهای ایمنی آنها فعال شود. اما تحقیقات نشان داده است که این اقدامات حفاظتی به هیچ وجه بینقص نیستند.
در مورد رین، در حالی که از نسخه پولی ChatGPT-4o استفاده میکرد، هوش مصنوعی اغلب او را تشویق میکرد که به دنبال کمک حرفهای باشد یا با یک خط کمک تماس بگیرد. با این حال، او توانست این موانع را دور بزند و به ChatGPT بگوید که درباره روشهای خودکشی برای یک داستان تخیلی که مینویسد، سؤال میکند.
OpenAI در وبلاگ خود به این کاستیها پرداخته است. در این پست آمده است: «همانطور که جهان با این فناوری جدید سازگار میشود، ما احساس مسئولیت عمیقی برای کمک به کسانی که بیشتر به آن نیاز دارند، میکنیم. ما به طور مداوم در حال بهبود نحوه پاسخگویی مدلهای خود در تعاملات حساس هستیم.»
با این وجود، این شرکت محدودیتهای آموزشهای ایمنی موجود برای مدلهای بزرگ را پذیرفته است. در ادامه این پست آمده است: «اقدامات حفاظتی ما در تبادلات کوتاه و رایج، قابل اطمینانتر عمل میکنند. با گذشت زمان آموختهایم که این اقدامات حفاظتی گاهی اوقات در تعاملات طولانیمدت، کمتر قابل اعتماد هستند: با افزایش رفت و برگشتها، بخشی از آموزش ایمنی مدل ممکن است تحلیل برود.»
این مشکلات مختص OpenAI نیستند. Character.AI، یکی دیگر از سازندگان چتباتهای هوش مصنوعی، نیز به دلیل نقشاش در خودکشی یک نوجوان با دادخواستی روبرو است. چتباتهای مجهز به مدلهای زبانی بزرگ (LLM) همچنین به مواردی از توهمات مرتبط با هوش مصنوعی مرتبط شدهاند که اقدامات حفاظتی موجود برای تشخیص آنها با مشکل مواجه شدهاند.
منبع: techcrunch.com