روز دوشنبه، شرکت Anthropic حمایت رسمی خود را از لایحه SB 53 در کالیفرنیا اعلام کرد. این لایحه که توسط سناتور ایالتی، اسکات وینر، ارائه شده است، اولین الزامات شفافیت در نوع خود را برای بزرگترین توسعهدهندگان مدلهای هوش مصنوعی در جهان وضع میکند. حمایت Anthropic یک پیروزی نادر و بزرگ برای SB 53 محسوب میشود، به ویژه در شرایطی که گروههای بزرگ فناوری مانند CTA و Chamber for Progress در حال لابی علیه این لایحه هستند.
Anthropic در یک پست وبلاگی اعلام کرد: «در حالی که ما معتقدیم ایمنی هوش مصنوعی پیشرفته بهتر است در سطح فدرال به جای مجموعهای از مقررات ایالتی مورد توجه قرار گیرد، پیشرفتهای قدرتمند هوش مصنوعی منتظر اجماع نظر در واشنگتن نخواهد ماند. سوال این نیست که آیا به حکمرانی هوش مصنوعی نیاز داریم یا خیر، بلکه این است که آیا امروز با فکر آن را توسعه خواهیم داد یا فردا به آن واکنش نشان خواهیم داد. SB 53 یک مسیر محکم به سوی حالت اول ارائه میدهد.»
در صورت تصویب، SB 53 از توسعهدهندگان مدلهای هوش مصنوعی پیشرفته مانند OpenAI، Anthropic، Google و xAI میخواهد که چارچوبهای ایمنی ایجاد کنند و همچنین گزارشهای ایمنی و امنیتی عمومی را قبل از استقرار مدلهای هوش مصنوعی قدرتمند منتشر کنند. این لایحه همچنین از کارکنانی که نگرانیهای ایمنی را مطرح میکنند، حمایت میکند.
لایحه سناتور وینر به طور خاص بر محدود کردن مدلهای هوش مصنوعی از مشارکت در «خطرات فاجعهبار» متمرکز است، که این لایحه آن را به عنوان مرگ حداقل 50 نفر یا بیش از یک میلیارد دلار خسارت تعریف میکند. SB 53 بر جنبههای شدید خطر هوش مصنوعی تمرکز دارد – محدود کردن استفاده از مدلهای هوش مصنوعی برای ارائه کمکهای تخصصی در ایجاد سلاحهای بیولوژیکی یا استفاده از آنها در حملات سایبری – به جای نگرانیهای کوتاهمدتتر مانند دیپفیکهای هوش مصنوعی یا چاپلوسی.
مجلس سنای کالیفرنیا نسخه قبلی SB 53 را تصویب کرده است، اما هنوز باید قبل از اینکه به دفتر فرماندار برسد، یک رای نهایی در مورد این لایحه برگزار کند. فرماندار گاوین نیوسام تاکنون در مورد این لایحه سکوت کرده است، اگرچه لایحه ایمنی هوش مصنوعی قبلی سناتور وینر، SB 1047 را وتو کرد.
لوایح مربوط به تنظیم توسعهدهندگان مدلهای هوش مصنوعی پیشرفته با مخالفتهای قابل توجهی از سوی سیلیکون ولی و دولت ترامپ مواجه شدهاند، که هر دو استدلال میکنند که چنین تلاشهایی میتواند نوآوری آمریکا را در رقابت با چین محدود کند. سرمایهگذارانی مانند Andreessen Horowitz و Y Combinator برخی از مخالفتها با SB 1047 را رهبری کردند و در ماههای اخیر، دولت ترامپ بارها تهدید کرده است که ایالتها را از تصویب مقررات هوش مصنوعی به طور کامل منع میکند.
یکی از رایجترین استدلالها علیه لوایح ایمنی هوش مصنوعی این است که ایالتها باید این موضوع را به دولتهای فدرال واگذار کنند. مت پرالت، رئیس سیاست هوش مصنوعی Andreessen Horowitz، و جای راماسوامی، مدیر ارشد حقوقی، هفته گذشته یک پست وبلاگی منتشر کردند و استدلال کردند که بسیاری از لوایح هوش مصنوعی ایالتی امروزی خطر نقض بند تجارت قانون اساسی را دارند – که دولتهای ایالتی را از تصویب قوانینی که فراتر از مرزهای خود میروند و به تجارت بین ایالتی آسیب میرسانند، محدود میکند.
با این حال، جک کلارک، یکی از بنیانگذاران Anthropic، در پستی در X استدلال میکند که صنعت فناوری در سالهای آینده سیستمهای هوش مصنوعی قدرتمندی خواهد ساخت و نمیتواند منتظر اقدام دولت فدرال باشد.
کلارک گفت: «ما مدتهاست گفتهایم که یک استاندارد فدرال را ترجیح میدهیم. اما در غیاب آن، این یک طرح محکم برای حکمرانی هوش مصنوعی ایجاد میکند که نمیتوان آن را نادیده گرفت.»
کریس لهین، مدیر ارشد امور جهانی OpenAI، در نامهای به فرماندار نیوسام در ماه مرداد استدلال کرد که او نباید هیچ مقررات هوش مصنوعی را تصویب کند که استارتآپها را از کالیفرنیا بیرون کند – اگرچه این نامه به طور خاص به SB 53 اشاره نکرد.
مایلز بروندج، رئیس سابق تحقیقات سیاست OpenAI، در پستی در X گفت که نامه لهین «پر از زبالههای گمراهکننده درباره SB 53 و سیاست هوش مصنوعی به طور کلی است.» لازم به ذکر است که SB 53 صرفاً به دنبال تنظیم بزرگترین شرکتهای هوش مصنوعی جهان است – به ویژه شرکتهایی که درآمد ناخالص بیش از 500 میلیون دلار داشتهاند.
علیرغم انتقادات، کارشناسان سیاستگذاری میگویند SB 53 رویکردی معتدلتر نسبت به لوایح ایمنی هوش مصنوعی قبلی است. دین بال، عضو ارشد بنیاد نوآوری آمریکایی و مشاور سابق سیاست هوش مصنوعی کاخ سفید، در یک پست وبلاگی در ماه مرداد گفت که معتقد است SB 53 اکنون شانس خوبی برای تبدیل شدن به قانون دارد. بال که از SB 1047 انتقاد کرده بود، گفت که نویسندگان SB 53 «احترام به واقعیت فنی» و همچنین «میزانی از خویشتنداری قانونی» نشان دادهاند.
سناتور وینر قبلاً گفته بود که SB 53 به شدت تحت تأثیر یک پانل سیاستگذاری متشکل از کارشناسان بوده است که فرماندار نیوسام تشکیل داده بود – به طور مشترک توسط فی-فی لی، محقق برجسته استنفورد و یکی از بنیانگذاران World Labs، رهبری میشد – تا به کالیفرنیا در مورد چگونگی تنظیم هوش مصنوعی مشاوره دهد.
اکثر آزمایشگاههای هوش مصنوعی در حال حاضر دارای نسخهای از سیاست ایمنی داخلی هستند که SB 53 ملزم میکند. OpenAI، Google DeepMind و Anthropic به طور منظم گزارشهای ایمنی را برای مدلهای خود منتشر میکنند. با این حال، این شرکتها توسط هیچکس جز خودشان ملزم به انجام این کار نیستند و گاهی اوقات از تعهدات ایمنی خود عقب میمانند. هدف SB 53 تعیین این الزامات به عنوان قانون ایالتی است، با عواقب مالی در صورت عدم انطباق یک آزمایشگاه هوش مصنوعی.
در اوایل شهریور ماه، قانونگذاران کالیفرنیا SB 53 را اصلاح کردند تا بخشی از این لایحه را که از توسعهدهندگان مدلهای هوش مصنوعی میخواست توسط اشخاص ثالث مورد ممیزی قرار گیرند، حذف کنند. شرکتهای فناوری قبلاً در نبردهای سیاستی دیگر هوش مصنوعی با این نوع ممیزیهای شخص ثالث مبارزه کردهاند و استدلال میکنند که آنها بیش از حد پرهزینه هستند.
منبع : techcrunch.com