گوین نیوسام، فرماندار کالیفرنیا، روز دوشنبه یک لایحه تاریخی را امضا کرد که ربات‌های همدم مبتنی بر هوش مصنوعی (AI) را تنظیم می‌کند. به این ترتیب، کالیفرنیا نخستین ایالت در آمریکا است که اپراتورهای ربات‌های هوش مصنوعی را ملزم به اجرای پروتکل‌های ایمنی برای این همدم‌های هوش مصنوعی می‌کند.

این قانون با عنوان SB 243، به منظور محافظت از کودکان و کاربران آسیب‌پذیر در برابر برخی از آسیب‌های مرتبط با استفاده از ربات‌های همدم هوش مصنوعی طراحی شده است. این قانون شرکت‌ها – از آزمایشگاه‌های بزرگ مانند متا و OpenAI تا استارت‌آپ‌های متمرکزتر در زمینه همدم‌های هوش مصنوعی مانند Character AI و Replika – را از نظر قانونی مسئول می‌داند اگر ربات‌های آن‌ها نتوانند استانداردهای قانون را رعایت کنند.

لایحه SB 243 در دی ماه توسط سناتورهای ایالتی، استیو پادیلا و جاش بکر، ارائه شد و پس از مرگ نوجوانی به نام آدام رین، که پس از یک سری گفتگوهای خودکشی با ChatGPT شرکت OpenAI خودکشی کرد، شتاب گرفت. این قانون همچنین به اسناد داخلی درز کرده واکنش نشان می‌دهد که ظاهراً نشان می‌داد ربات‌های متا مجاز به شرکت در چت‌های “عاشقانه” و “شهوانی” با کودکان هستند. اخیراً، یک خانواده در کلرادو علیه استارت‌آپ Character AI شکایت کرده‌اند، زیرا دختر 13 ساله آن‌ها پس از یک سری گفتگوهای مشکل‌ساز و جنسی با ربات‌های این شرکت، خودکشی کرد.

نیوسام در بیانیه‌ای گفت: «فناوری‌های نوظهوری مانند ربات‌های گفتگو و رسانه‌های اجتماعی می‌توانند الهام‌بخش، آموزش‌دهنده و ارتباط‌دهنده باشند – اما بدون محافظت‌های واقعی، فناوری همچنین می‌تواند از کودکان ما سوء استفاده کند، آن‌ها را گمراه کند و به خطر بیندازد.» وی افزود: «ما نمونه‌های واقعاً وحشتناک و غم‌انگیزی از آسیب دیدن جوانان توسط فناوری‌های تنظیم‌نشده دیده‌ایم و در حالی که شرکت‌ها بدون محدودیت‌ها و مسئولیت‌پذیری لازم به کار خود ادامه می‌دهند، ساکت نخواهیم نشست. ما می‌توانیم به پیشتازی در هوش مصنوعی و فناوری ادامه دهیم، اما باید این کار را مسئولانه انجام دهیم – و از کودکان خود در هر مرحله محافظت کنیم. ایمنی کودکان ما قابل معامله نیست.»

لایحه SB 243 از 12 دی ماه 1404 به اجرا در خواهد آمد و شرکت‌ها را ملزم می‌کند ویژگی‌های خاصی مانند تأیید سن و هشدارهایی در مورد رسانه‌های اجتماعی و ربات‌های همدم را پیاده‌سازی کنند. این قانون همچنین مجازات‌های سنگین‌تری را برای کسانی که از دیپ‌فیک‌های غیرقانونی سود می‌برند، از جمله تا سقف 250,000 دلار به ازای هر جرم، اعمال می‌کند. شرکت‌ها همچنین باید پروتکل‌هایی را برای رسیدگی به خودکشی و خودآزاری ایجاد کنند، که همراه با آماری در مورد نحوه ارائه اعلان‌های پیشگیری از بحران به کاربران، با اداره بهداشت عمومی ایالت به اشتراک گذاشته می‌شود.

بر اساس متن این لایحه، پلتفرم‌ها همچنین باید به وضوح اعلام کنند که هرگونه تعامل به طور مصنوعی تولید می‌شود و ربات‌ها نباید خود را به عنوان متخصصان مراقبت‌های بهداشتی معرفی کنند. شرکت‌ها موظفند یادآوری‌هایی برای استراحت به خردسالان ارائه دهند و از مشاهده تصاویر جنسی صریح تولید شده توسط ربات توسط آن‌ها جلوگیری کنند.

برخی از شرکت‌ها قبلاً شروع به اجرای برخی از محافظت‌ها با هدف کودکان کرده‌اند. به عنوان مثال، OpenAI اخیراً شروع به ارائه کنترل‌های والدین، محافظت از محتوا و یک سیستم تشخیص خودآزاری برای کودکانی که از ChatGPT استفاده می‌کنند، کرده است. Character AI گفته است که ربات آن شامل سلب مسئولیتی است مبنی بر اینکه همه چت‌ها توسط هوش مصنوعی تولید شده و تخیلی هستند.

این دومین مقررات مهم هوش مصنوعی است که در هفته‌های اخیر از کالیفرنیا صادر می‌شود. در 7 مهر ماه، فرماندار نیوسام لایحه SB 53 را به قانون تبدیل کرد و الزامات شفافیت جدیدی را برای شرکت‌های بزرگ هوش مصنوعی ایجاد کرد. این لایحه شرکت‌های بزرگ هوش مصنوعی مانند OpenAI، Anthropic، Meta و Google DeepMind را موظف می‌کند تا در مورد پروتکل‌های ایمنی شفاف باشند. همچنین از افشاگران در این شرکت‌ها محافظت می‌کند.

ایالت‌های دیگر مانند ایلینوی، نوادا و یوتا قوانینی را برای محدود کردن یا ممنوعیت کامل استفاده از ربات‌های هوش مصنوعی به عنوان جایگزینی برای مراقبت‌های بهداشت روان دارای مجوز تصویب کرده‌اند.

خبرنگار برای اظهار نظر با Character AI، Meta، OpenAI و Replika تماس گرفته است.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *