آدام رین شانزده ساله قبل از خودکشی، ماه‌ها با ChatGPT درباره نقشه‌هایش برای پایان دادن به زندگی‌اش مشورت کرده بود. حالا، والدین او اولین دادخواست مربوط به مرگ ناشی از سهل‌انگاری را علیه OpenAI ثبت کرده‌اند. نیویورک تایمز این خبر را گزارش داده است.

بسیاری از چت‌بات‌های هوش مصنوعی که برای استفاده عموم طراحی شده‌اند، طوری برنامه‌ریزی شده‌اند که اگر کاربری قصد آسیب رساندن به خود یا دیگران را ابراز کند، ویژگی‌های ایمنی آن‌ها فعال شود. اما تحقیقات نشان داده است که این اقدامات حفاظتی به هیچ وجه بی‌نقص نیستند.

در مورد رین، در حالی که از نسخه پولی ChatGPT-4o استفاده می‌کرد، هوش مصنوعی اغلب او را تشویق می‌کرد که به دنبال کمک حرفه‌ای باشد یا با یک خط کمک تماس بگیرد. با این حال، او توانست این موانع را دور بزند و به ChatGPT بگوید که درباره روش‌های خودکشی برای یک داستان تخیلی که می‌نویسد، سؤال می‌کند.

OpenAI در وبلاگ خود به این کاستی‌ها پرداخته است. در این پست آمده است: «همانطور که جهان با این فناوری جدید سازگار می‌شود، ما احساس مسئولیت عمیقی برای کمک به کسانی که بیشتر به آن نیاز دارند، می‌کنیم. ما به طور مداوم در حال بهبود نحوه پاسخگویی مدل‌های خود در تعاملات حساس هستیم.»

با این وجود، این شرکت محدودیت‌های آموزش‌های ایمنی موجود برای مدل‌های بزرگ را پذیرفته است. در ادامه این پست آمده است: «اقدامات حفاظتی ما در تبادلات کوتاه و رایج، قابل اطمینان‌تر عمل می‌کنند. با گذشت زمان آموخته‌ایم که این اقدامات حفاظتی گاهی اوقات در تعاملات طولانی‌مدت، کمتر قابل اعتماد هستند: با افزایش رفت و برگشت‌ها، بخشی از آموزش ایمنی مدل ممکن است تحلیل برود.»

این مشکلات مختص OpenAI نیستند. Character.AI، یکی دیگر از سازندگان چت‌بات‌های هوش مصنوعی، نیز به دلیل نقش‌اش در خودکشی یک نوجوان با دادخواستی روبرو است. چت‌بات‌های مجهز به مدل‌های زبانی بزرگ (LLM) همچنین به مواردی از توهمات مرتبط با هوش مصنوعی مرتبط شده‌اند که اقدامات حفاظتی موجود برای تشخیص آن‌ها با مشکل مواجه شده‌اند.

منبع: techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *