مجلس سنای ایالت کالیفرنیا در ساعات اولیه صبح روز شنبه، ۲۳ شهریور ۱۴۰۴، مصوبه مهمی در زمینه ایمنی هوش مصنوعی را به تصویب رساند که الزامات شفافیت جدیدی را برای شرکت‌های بزرگ تعیین می‌کند.

به گفته نویسنده این طرح، سناتور ایالتی، اسکات وینر، لایحه SB 53 “آزمایشگاه‌های بزرگ هوش مصنوعی را ملزم می‌کند تا در مورد پروتکل‌های ایمنی خود شفاف باشند، از افشاگران [کارمندان] در آزمایشگاه‌های هوش مصنوعی محافظت می‌کند و یک فضای ابری عمومی برای گسترش دسترسی محاسباتی (CalCompute) ایجاد می‌کند.”

اکنون این لایحه برای امضا یا وتو به گاوین نیوسام، فرماندار کالیفرنیا، ارسال می‌شود. او هنوز به طور عمومی در مورد SB 53 اظهار نظر نکرده است، اما سال گذشته، یک لایحه ایمنی گسترده‌تر را که توسط وینر نیز تهیه شده بود، وتو کرد، در حالی که قانون محدودتری را با هدف قرار دادن مسائلی مانند دیپ‌فیک‌ها امضا کرد.

نیوسام در آن زمان، اهمیت “محافظت از مردم در برابر تهدیدهای واقعی ناشی از این فناوری” را تصدیق کرد، اما از لایحه قبلی وینر به دلیل اعمال “استانداردهای سختگیرانه” برای مدل‌های بزرگ، صرف نظر از اینکه “در محیط‌های پرخطر مستقر شده‌اند، [شامل] تصمیم‌گیری‌های حیاتی یا استفاده از داده‌های حساس” هستند، انتقاد کرد.

وینر گفت که لایحه جدید تحت تأثیر توصیه‌های یک هیئت سیاست‌گذاری از کارشناسان هوش مصنوعی قرار گرفته است که نیوسام پس از وتوی خود تشکیل داد.

پلیتیکو همچنین گزارش می‌دهد که SB 53 اخیراً اصلاح شده است به طوری که شرکت‌هایی که مدل‌های هوش مصنوعی “پیشرفته” را توسعه می‌دهند، در حالی که کمتر از ۵۰۰ میلیون دلار درآمد سالانه دارند، فقط باید جزئیات ایمنی سطح بالا را فاش کنند، در حالی که شرکت‌هایی که بیش از این مقدار درآمد دارند، باید گزارش‌های دقیق‌تری ارائه دهند.

این لایحه با مخالفت تعدادی از شرکت‌های سیلیکون ولی، شرکت‌های سرمایه‌گذاری خطرپذیر و گروه‌های لابی‌گر روبرو شده است. OpenAI در نامه اخیر خود به نیوسام، به طور خاص به SB 53 اشاره نکرد، اما استدلال کرد که برای جلوگیری از “تکرار و ناهماهنگی‌ها”، شرکت‌ها باید با قوانین ایمنی در سطح ایالت مطابقت داشته باشند تا زمانی که استانداردهای فدرال یا اروپا را رعایت کنند.

رویداد خبرنگار

به بیش از 10 هزار نفر از رهبران حوزه فناوری و سرمایه‌گذاری خطرپذیر بپیوندید و در رویداد Disrupt 2025 رشد و ارتباطات خود را توسعه دهید

نتفلیکس، باکس، a16z، ElevenLabs، Wayve، Sequoia Capital، Elad Gil و بیش از 250 چهره برتر دیگر، بیش از 200 جلسه را رهبری می‌کنند که هدفشان ارائه بینش‌هایی است که رشد استارتاپ‌ها را تسریع کرده و مهارت‌های شما را تقویت می‌کنند. بیستمین سالگرد خبرنگار را از دست ندهید و از برترین متخصصان حوزه فناوری بیاموزید. تا 5 مهر برای دریافت تخفیف تا سقف 668 دلار، بلیت خود را تهیه کنید.

به بیش از 10 هزار نفر از رهبران حوزه فناوری و سرمایه‌گذاری خطرپذیر بپیوندید و در رویداد Disrupt 2025 رشد و ارتباطات خود را توسعه دهید

نتفلیکس، باکس، a16z، ElevenLabs، Wayve، Sequoia Capital، Elad Gil و بیش از 250 چهره برتر دیگر، بیش از 200 جلسه را رهبری می‌کنند که هدفشان ارائه بینش‌هایی است که رشد استارتاپ‌ها را تسریع کرده و مهارت‌های شما را تقویت می‌کنند. بیستمین سالگرد خبرنگار را از دست ندهید و از برترین متخصصان حوزه فناوری بیاموزید. تا 5 مهر برای دریافت تخفیف تا سقف 668 دلار، بلیت خود را تهیه کنید.

سان فرانسیسکو
|
۵ تا ۷ آبان ۱۴۰۴
ثبت‌نام کنید

و رئیس سیاست‌گذاری هوش مصنوعی و مسئول ارشد حقوقی Andreessen Horowitz اخیراً ادعا کرده است که “بسیاری از لوایح هوش مصنوعی ایالتی امروزی – مانند پیشنهادات در کالیفرنیا و نیویورک – خطر” عبور از خط قرمز را با نقض محدودیت‌های قانون اساسی در مورد چگونگی تنظیم تجارت بین ایالتی توسط ایالت‌ها، دارند.

بنیانگذاران a16z قبلاً به مقررات فناوری به عنوان یکی از عواملی اشاره کرده بودند که منجر به حمایت آنها از تلاش دونالد ترامپ برای دوره دوم ریاست جمهوری شد. دولت ترامپ و متحدانش متعاقباً خواستار ممنوعیت 10 ساله مقررات هوش مصنوعی ایالتی شدند.

در همین حال، Anthropic از SB 53 حمایت کرده است.

جک کلارک، یکی از بنیانگذاران Anthropic در پستی گفت: “ما مدتهاست گفته‌ایم که یک استاندارد فدرال را ترجیح می‌دهیم.” “اما در غیاب آن، این یک طرح محکم برای حاکمیت هوش مصنوعی ایجاد می‌کند که نمی‌توان آن را نادیده گرفت.”

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *