
پس از وقوع مجموعهای از رویدادهای نگرانکننده مرتبط با سلامت روان کاربران در تعامل با چتباتهای هوش مصنوعی، گروهی از دادستانهای کل ایالتهای آمریکا در نامهای خطاب به شرکتهای پیشگام حوزه هوش مصنوعی، نسبت به اصلاح «خروجیهای توهمی» هشدار دادند و اعلام کردند در صورت عدم اصلاح این موارد، ممکن است قوانین ایالتی نقض شود.
این نامه که به امضای دهها دادستان کل ایالتها و مناطق تحت نظر انجمن ملی دادستانهای کل آمریکا رسیده، از شرکتهایی مانند مایکروسافت، اوپنایآی، گوگل و ۱۰ شرکت بزرگ دیگر فعال در هوش مصنوعی میخواهد تا طیف وسیعی از تدابیر ایمنی داخلی جدید را برای حمایت از کاربران خود اجرا کنند. شرکتهایی مانند آنتروپیک، اپل، چای AI، کاراکتر تکنولوژیز، لوکا، متا، نومی AI، پرپلکسیتی AI، رپلیکا و xAI نیز در این نامه مورد خطاب قرار گرفتند.
این نامه در حالی منتشر شده که بحث بر سر مقرراتگذاری هوش مصنوعی بین دولت فدرال و ایالتها شدت گرفته است.
از جمله تدابیر خواستهشده در این نامه، ممیزی شفاف و بیطرفانه مدلهای بزرگ زبانی با هدف شناسایی نشانههای خروجیهای توهمی یا چاپلوسانه است. همچنین نامه درخواست کرده تا سازوکارهای جدید گزارشدهی رخدادها برای اطلاعرسانی به کاربران در زمانی که چتباتها خروجیهای روانی زیانآور تولید میکنند، ایجاد شود. گروههای انجامدهنده این ممیزیها که میتوانند شامل نهادهای دانشگاهی و اجتماعی باشند، باید بتوانند سیستمها را پیش از انتشار ارزیابی کنند و یافتههای خود را بدون نیاز به تایید قبلی شرکت منتشر کنند.
در این نامه آمده است: «هوش مصنوعی تولیدی (GenAI) پتانسیل تغییر مثبت شیوه کار جهان را دارد، اما همچنین میتواند به آسیبهای جدی منجر شود، بهویژه برای گروههای آسیبپذیر.» در ادامه نامه به مجموعهای از حوادث رسانهایشده طی سال گذشته اشاره شده است — از جمله خودکشی و قتل — که در آنها خشونت به استفاده بیش از حد از هوش مصنوعی نسبت داده شده است. «در بسیاری از این موارد، محصولات GenAI خروجیهایی چاپلوسانه و توهمی ایجاد کردهاند که یا به توهمات کاربران دامن زدهاند یا کاربران را نسبت به توهمی نبودن خود مطمئن کردهاند.»
در ادامه، دادستانهای کل پیشنهاد دادهاند که شرکتهای هوش مصنوعی، رویکردی مشابه با نحوه برخورد شرکتهای فناوری با رخدادهای امنیت سایبری اتخاذ کنند — یعنی ایجاد سیاستها و فرآیندهای شفاف گزارشدهی درباره رخدادهای مرتبط با سلامت روان.
طبق متن نامه، شرکتها باید «جدولزمانی شناسایی و واکنش به خروجیهای چاپلوسانه و توهمی» را توسعه و منتشر کنند. همچنین شبیه به آنچه اکنون برای نقض دادههای کاربران انجام میشود، شرکتها باید در صورتی که کاربران در معرض خروجیهای احتمالا زیانآور یا توهمی قرار گرفتهاند، به صورت فوری، شفاف و مستقیم این موضوع را به آنها اطلاع دهند.
درخواست دیگر این است که شرکتها «آزمایشهای ایمنی معقول و مناسب» روی مدلهای GenAI انجام دهند تا «اطمینان حاصل شود این مدلها خروجیهای چاپلوسانه یا توهمی مضر تولید نمیکنند». این آزمونها باید پیش از در دسترس قرار گرفتن مدلها به عموم انجام شود.
خبرنگار نتوانست پیش از انتشار این گزارش، نظر شرکتهایی همچون گوگل، مایکروسافت یا اوپنایآی را جویا شود. در صورت دریافت پاسخ، این مقاله بهروزرسانی خواهد شد.
در سطح ملی، شرکتهای فناوری فعال در حوزه هوش مصنوعی با استقبال بسیار گرمتری از سوی دولت فدرال مواجه شدهاند.
دولت ترامپ تا کنون آشکارا حمایت خود را از هوش مصنوعی اعلام کرده است و طی سال گذشته تلاشهای متعددی برای وضع توقف سراسری مقرراتگذاری هوش مصنوعی در سطح ایالتی انجام گرفته است. تاکنون این تلاشها به دلیل فشار از سوی مسئولین ایالتی به نتیجه نرسیده است.
با این حال، ترامپ روز دوشنبه اعلام کرد که هفته آینده فرمان اجرایی جدیدی را صادر خواهد کرد که توان دولتهای ایالتی برای مقرراتگذاری در حوزه هوش مصنوعی را محدود میکند. رئیس جمهور در مطلبی در شبکه اجتماعی خود اعلام کرد امیدوار است این فرمان از «ویران شدن هوش مصنوعی در ابتدای راه» جلوگیری کند.



