مجلس سنای ایالت کالیفرنیا در ساعات اولیه صبح روز شنبه، ۲۳ شهریور ۱۴۰۴، مصوبه مهمی در زمینه ایمنی هوش مصنوعی را به تصویب رساند که الزامات شفافیت جدیدی را برای شرکتهای بزرگ تعیین میکند.
به گفته نویسنده این طرح، سناتور ایالتی، اسکات وینر، لایحه SB 53 “آزمایشگاههای بزرگ هوش مصنوعی را ملزم میکند تا در مورد پروتکلهای ایمنی خود شفاف باشند، از افشاگران [کارمندان] در آزمایشگاههای هوش مصنوعی محافظت میکند و یک فضای ابری عمومی برای گسترش دسترسی محاسباتی (CalCompute) ایجاد میکند.”
اکنون این لایحه برای امضا یا وتو به گاوین نیوسام، فرماندار کالیفرنیا، ارسال میشود. او هنوز به طور عمومی در مورد SB 53 اظهار نظر نکرده است، اما سال گذشته، یک لایحه ایمنی گستردهتر را که توسط وینر نیز تهیه شده بود، وتو کرد، در حالی که قانون محدودتری را با هدف قرار دادن مسائلی مانند دیپفیکها امضا کرد.
نیوسام در آن زمان، اهمیت “محافظت از مردم در برابر تهدیدهای واقعی ناشی از این فناوری” را تصدیق کرد، اما از لایحه قبلی وینر به دلیل اعمال “استانداردهای سختگیرانه” برای مدلهای بزرگ، صرف نظر از اینکه “در محیطهای پرخطر مستقر شدهاند، [شامل] تصمیمگیریهای حیاتی یا استفاده از دادههای حساس” هستند، انتقاد کرد.
وینر گفت که لایحه جدید تحت تأثیر توصیههای یک هیئت سیاستگذاری از کارشناسان هوش مصنوعی قرار گرفته است که نیوسام پس از وتوی خود تشکیل داد.
پلیتیکو همچنین گزارش میدهد که SB 53 اخیراً اصلاح شده است به طوری که شرکتهایی که مدلهای هوش مصنوعی “پیشرفته” را توسعه میدهند، در حالی که کمتر از ۵۰۰ میلیون دلار درآمد سالانه دارند، فقط باید جزئیات ایمنی سطح بالا را فاش کنند، در حالی که شرکتهایی که بیش از این مقدار درآمد دارند، باید گزارشهای دقیقتری ارائه دهند.
این لایحه با مخالفت تعدادی از شرکتهای سیلیکون ولی، شرکتهای سرمایهگذاری خطرپذیر و گروههای لابیگر روبرو شده است. OpenAI در نامه اخیر خود به نیوسام، به طور خاص به SB 53 اشاره نکرد، اما استدلال کرد که برای جلوگیری از “تکرار و ناهماهنگیها”، شرکتها باید با قوانین ایمنی در سطح ایالت مطابقت داشته باشند تا زمانی که استانداردهای فدرال یا اروپا را رعایت کنند.
به بیش از 10 هزار نفر از رهبران حوزه فناوری و سرمایهگذاری خطرپذیر بپیوندید و در رویداد Disrupt 2025 رشد و ارتباطات خود را توسعه دهید
نتفلیکس، باکس، a16z، ElevenLabs، Wayve، Sequoia Capital، Elad Gil و بیش از 250 چهره برتر دیگر، بیش از 200 جلسه را رهبری میکنند که هدفشان ارائه بینشهایی است که رشد استارتاپها را تسریع کرده و مهارتهای شما را تقویت میکنند. بیستمین سالگرد خبرنگار را از دست ندهید و از برترین متخصصان حوزه فناوری بیاموزید. تا 5 مهر برای دریافت تخفیف تا سقف 668 دلار، بلیت خود را تهیه کنید.
به بیش از 10 هزار نفر از رهبران حوزه فناوری و سرمایهگذاری خطرپذیر بپیوندید و در رویداد Disrupt 2025 رشد و ارتباطات خود را توسعه دهید
نتفلیکس، باکس، a16z، ElevenLabs، Wayve، Sequoia Capital، Elad Gil و بیش از 250 چهره برتر دیگر، بیش از 200 جلسه را رهبری میکنند که هدفشان ارائه بینشهایی است که رشد استارتاپها را تسریع کرده و مهارتهای شما را تقویت میکنند. بیستمین سالگرد خبرنگار را از دست ندهید و از برترین متخصصان حوزه فناوری بیاموزید. تا 5 مهر برای دریافت تخفیف تا سقف 668 دلار، بلیت خود را تهیه کنید.
|
۵ تا ۷ آبان ۱۴۰۴
و رئیس سیاستگذاری هوش مصنوعی و مسئول ارشد حقوقی Andreessen Horowitz اخیراً ادعا کرده است که “بسیاری از لوایح هوش مصنوعی ایالتی امروزی – مانند پیشنهادات در کالیفرنیا و نیویورک – خطر” عبور از خط قرمز را با نقض محدودیتهای قانون اساسی در مورد چگونگی تنظیم تجارت بین ایالتی توسط ایالتها، دارند.
بنیانگذاران a16z قبلاً به مقررات فناوری به عنوان یکی از عواملی اشاره کرده بودند که منجر به حمایت آنها از تلاش دونالد ترامپ برای دوره دوم ریاست جمهوری شد. دولت ترامپ و متحدانش متعاقباً خواستار ممنوعیت 10 ساله مقررات هوش مصنوعی ایالتی شدند.
در همین حال، Anthropic از SB 53 حمایت کرده است.
جک کلارک، یکی از بنیانگذاران Anthropic در پستی گفت: “ما مدتهاست گفتهایم که یک استاندارد فدرال را ترجیح میدهیم.” “اما در غیاب آن، این یک طرح محکم برای حاکمیت هوش مصنوعی ایجاد میکند که نمیتوان آن را نادیده گرفت.”
منبع : techcrunch.com