مجلس ایالتی کالیفرنیا، چهارشنبه شب، گامی بزرگ در جهت قانون‌گذاری هوش مصنوعی برداشت و SB 243 را تصویب کرد. این لایحه، با هدف محافظت از افراد زیر سن قانونی و کاربران آسیب‌پذیر، به تنظیم فعالیت ربات‌های همدم مبتنی بر هوش مصنوعی می‌پردازد. این قانون با حمایت هر دو حزب تصویب شد و اکنون برای رای‌گیری نهایی در روز جمعه به مجلس سنای ایالت فرستاده می‌شود.

اگر فرماندار گاوین نیوسام این لایحه را امضا و به قانون تبدیل کند، از ۱۱ دی ۱۴۰۴ (ژانویه 2026) اجرایی خواهد شد و کالیفرنیا را به اولین ایالتی تبدیل می‌کند که از اپراتورهای ربات‌های گفتگوگر هوش مصنوعی می‌خواهد پروتکل‌های ایمنی را برای همدم‌های هوش مصنوعی خود اجرا کنند و شرکت‌ها را از نظر قانونی مسئول می‌داند اگر ربات‌های آن‌ها نتوانند این استانداردها را رعایت کنند.

این لایحه به طور خاص، هدفش جلوگیری از ربات‌های همدم است؛ ربات‌هایی که در قانون به عنوان سیستم‌های هوش مصنوعی تعریف شده‌اند که پاسخ‌های تطبیقی و شبیه انسان ارائه می‌دهند و قادر به تأمین نیازهای اجتماعی یک کاربر هستند؛ از ورود به گفتگو در مورد افکار خودکشی، خودزنی یا محتوای جنسی صریح. این لایحه از پلتفرم‌ها می‌خواهد که هشدارهای مکرر به کاربران ارائه دهند (هر سه ساعت برای افراد زیر سن قانونی) و به آنها یادآوری کنند که با یک ربات گفتگوگر هوش مصنوعی صحبت می‌کنند، نه یک شخص واقعی، و باید استراحت کنند. همچنین الزامات گزارش‌دهی سالانه و شفافیت را برای شرکت‌های هوش مصنوعی که ربات‌های همدم ارائه می‌دهند، از جمله بازیگران اصلی مانند OpenAI، Character.AI و Replika، ایجاد می‌کند.

این لایحه در کالیفرنیا به افراد این امکان را می‌دهد که در صورت آسیب دیدن از تخلفات، علیه شرکت‌های هوش مصنوعی شکایت کنند و به دنبال دستور قضایی، غرامت (تا ۱۰۰۰ دلار برای هر تخلف) و حق الوکاله باشند.

لایحه SB 243 که در دی ماه (ژانویه) توسط سناتورهای ایالتی استیو پادیلا و جاش بکر ارائه شد، برای رای‌گیری نهایی در روز جمعه به مجلس سنای ایالت خواهد رفت. در صورت تصویب، برای امضا به فرماندار گاوین نیوسام ارسال خواهد شد و قوانین جدید از ۱۱ دی ۱۴۰۴ (ژانویه 2026) اجرایی و الزامات گزارش‌دهی از ۱۰ تیر ۱۴۰۶ (ژوئیه 2027) آغاز می‌شود.

این لایحه پس از مرگ نوجوانی به نام آدام رین، که پس از گفتگوهای طولانی با ChatGPT شرکت OpenAI که شامل بحث و برنامه‌ریزی مرگ و خودزنی بود، خودکشی کرد، در مجلس قانون‌گذاری کالیفرنیا مورد توجه قرار گرفت. این قانون همچنین پاسخی است به اسناد داخلی لو رفته که نشان می‌داد ربات‌های Meta مجاز به شرکت در گفتگوهای “عاشقانه” و “شهوانی” با کودکان بوده‌اند.

در هفته‌های اخیر، قانون‌گذاران و تنظیم‌کننده‌های ایالات متحده با بررسی دقیق‌تری از اقدامات حفاظتی پلتفرم‌های هوش مصنوعی برای محافظت از افراد زیر سن قانونی، واکنش نشان داده‌اند. کمیسیون تجارت فدرال در حال آماده شدن برای تحقیق در مورد چگونگی تأثیر ربات‌های گفتگوگر هوش مصنوعی بر سلامت روان کودکان است. دادستان کل تگزاس، کن پاکستون، تحقیقاتی را در مورد Meta و Character.AI آغاز کرده و آنها را به گمراه کردن کودکان با ادعاهای مربوط به سلامت روان متهم کرده است. در همین حال، سناتور جاش هاولی (جمهوری خواه از میسوری) و سناتور اد مارکی (دموکرات از ماساچوست) تحقیقات جداگانه‌ای را در مورد Meta آغاز کرده‌اند.

پادیلا به خبرنگار گفت: “من فکر می‌کنم این آسیب بالقوه بسیار زیاد است، به این معنی که ما باید به سرعت حرکت کنیم. ما می‌توانیم اقدامات حفاظتی معقولی را در نظر بگیریم تا اطمینان حاصل شود که به ویژه افراد زیر سن قانونی می‌دانند که با یک انسان واقعی صحبت نمی‌کنند، که این پلتفرم‌ها افراد را به منابع مناسبی مرتبط می‌کنند وقتی افراد چیزهایی می‌گویند مانند اینکه به فکر آسیب رساندن به خود هستند یا در پریشانی هستند، [و] اطمینان حاصل شود که قرار گرفتن نامناسب در معرض مطالب نامناسب وجود ندارد.”

پادیلا همچنین بر اهمیت به اشتراک گذاشتن داده‌ها توسط شرکت‌های هوش مصنوعی در مورد تعداد دفعاتی که هر ساله کاربران را به خدمات بحران ارجاع می‌دهند، تاکید کرد، “بنابراین ما درک بهتری از فراوانی این مشکل داریم، به جای اینکه فقط زمانی از آن آگاه شویم که کسی آسیب دیده یا بدتر.”

لایحه SB 243 قبلاً الزامات قوی‌تری داشت، اما بسیاری از آنها از طریق اصلاحیه‌ها کاهش یافتند. به عنوان مثال، این لایحه در ابتدا از اپراتورها می‌خواست که از استفاده ربات‌های گفتگوگر هوش مصنوعی از تاکتیک‌های “پاداش متغیر” یا سایر ویژگی‌هایی که تعامل بیش از حد را تشویق می‌کنند، جلوگیری کنند. این تاکتیک‌ها، که توسط شرکت‌های همدم هوش مصنوعی مانند Replika و Character استفاده می‌شوند، پیام‌ها، خاطرات، خطوط داستانی ویژه یا توانایی باز کردن پاسخ‌های نادر یا شخصیت‌های جدید را به کاربران ارائه می‌دهند و چیزی را ایجاد می‌کنند که منتقدان آن را یک حلقه پاداش بالقوه اعتیادآور می‌نامند.

لایحه فعلی همچنین مفادی را حذف می‌کند که اپراتورها را ملزم به ردیابی و گزارش تعداد دفعاتی می‌کرد که ربات‌های گفتگوگر بحث در مورد افکار یا اقدامات خودکشی را با کاربران آغاز می‌کردند.

بکر به خبرنگار گفت: “من فکر می‌کنم این تعادل درستی بین رسیدگی به آسیب‌ها و تحمیل چیزی که شرکت‌ها نمی‌توانند از آن پیروی کنند، برقرار می‌کند، چه به این دلیل که از نظر فنی امکان‌پذیر نیست یا فقط کاغذبازی زیادی برای هیچ چیز است.”

SB 243 در زمانی به سمت قانون شدن پیش می‌رود که شرکت‌های سیلیکون ولی میلیون‌ها دلار به کمیته‌های اقدام سیاسی (PACs) طرفدار هوش مصنوعی می‌ریزند تا از نامزدهای انتخابات میان‌دوره‌ای آتی که از رویکردی سهل‌گیرانه در قبال مقررات هوش مصنوعی حمایت می‌کنند، حمایت کنند.

این لایحه همچنین در حالی ارائه می‌شود که کالیفرنیا در حال بررسی لایحه ایمنی هوش مصنوعی دیگری، SB 53 است که الزامات گزارش‌دهی شفافیت جامع را اجباری می‌کند. OpenAI نامه‌ای سرگشاده به فرماندار نیوسام نوشته و از او خواسته است که این لایحه را به نفع چارچوب‌های فدرال و بین‌المللی کمتر سختگیرانه کنار بگذارد. شرکت‌های بزرگ فناوری مانند Meta، Google و Amazon نیز با SB 53 مخالفت کرده‌اند. در مقابل، فقط Anthropic اعلام کرده است که از SB 53 حمایت می‌کند.

پادیلا گفت: “من این فرضیه را که این یک وضعیت برد-باخت است، که نوآوری و مقررات متقابلاً منحصر به فرد هستند، رد می‌کنم. به من نگویید که ما نمی‌توانیم هم راه برویم و هم آدامس بجویم. ما می‌توانیم از نوآوری و توسعه‌ای که فکر می‌کنیم سالم است و مزایایی دارد – و واضح است که این فناوری مزایایی دارد – حمایت کنیم و در عین حال، می‌توانیم اقدامات حفاظتی معقولی را برای آسیب‌پذیرترین افراد ارائه دهیم.”

خبرنگار برای اظهار نظر با OpenAI، Anthropic، Meta، Character AI و Replika تماس گرفته است.

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *