روز دوشنبه، شرکت Anthropic حمایت رسمی خود را از لایحه SB 53 در کالیفرنیا اعلام کرد. این لایحه که توسط سناتور ایالتی، اسکات وینر، ارائه شده است، اولین الزامات شفافیت در نوع خود را برای بزرگترین توسعه‌دهندگان مدل‌های هوش مصنوعی در جهان وضع می‌کند. حمایت Anthropic یک پیروزی نادر و بزرگ برای SB 53 محسوب می‌شود، به ویژه در شرایطی که گروه‌های بزرگ فناوری مانند CTA و Chamber for Progress در حال لابی علیه این لایحه هستند.

Anthropic در یک پست وبلاگی اعلام کرد: «در حالی که ما معتقدیم ایمنی هوش مصنوعی پیشرفته بهتر است در سطح فدرال به جای مجموعه‌ای از مقررات ایالتی مورد توجه قرار گیرد، پیشرفت‌های قدرتمند هوش مصنوعی منتظر اجماع نظر در واشنگتن نخواهد ماند. سوال این نیست که آیا به حکمرانی هوش مصنوعی نیاز داریم یا خیر، بلکه این است که آیا امروز با فکر آن را توسعه خواهیم داد یا فردا به آن واکنش نشان خواهیم داد. SB 53 یک مسیر محکم به سوی حالت اول ارائه می‌دهد.»

در صورت تصویب، SB 53 از توسعه‌دهندگان مدل‌های هوش مصنوعی پیشرفته مانند OpenAI، Anthropic، Google و xAI می‌خواهد که چارچوب‌های ایمنی ایجاد کنند و همچنین گزارش‌های ایمنی و امنیتی عمومی را قبل از استقرار مدل‌های هوش مصنوعی قدرتمند منتشر کنند. این لایحه همچنین از کارکنانی که نگرانی‌های ایمنی را مطرح می‌کنند، حمایت می‌کند.

لایحه سناتور وینر به طور خاص بر محدود کردن مدل‌های هوش مصنوعی از مشارکت در «خطرات فاجعه‌بار» متمرکز است، که این لایحه آن را به عنوان مرگ حداقل 50 نفر یا بیش از یک میلیارد دلار خسارت تعریف می‌کند. SB 53 بر جنبه‌های شدید خطر هوش مصنوعی تمرکز دارد – محدود کردن استفاده از مدل‌های هوش مصنوعی برای ارائه کمک‌های تخصصی در ایجاد سلاح‌های بیولوژیکی یا استفاده از آنها در حملات سایبری – به جای نگرانی‌های کوتاه‌مدت‌تر مانند دیپ‌فیک‌های هوش مصنوعی یا چاپلوسی.

مجلس سنای کالیفرنیا نسخه قبلی SB 53 را تصویب کرده است، اما هنوز باید قبل از اینکه به دفتر فرماندار برسد، یک رای نهایی در مورد این لایحه برگزار کند. فرماندار گاوین نیوسام تاکنون در مورد این لایحه سکوت کرده است، اگرچه لایحه ایمنی هوش مصنوعی قبلی سناتور وینر، SB 1047 را وتو کرد.

لوایح مربوط به تنظیم توسعه‌دهندگان مدل‌های هوش مصنوعی پیشرفته با مخالفت‌های قابل توجهی از سوی سیلیکون ولی و دولت ترامپ مواجه شده‌اند، که هر دو استدلال می‌کنند که چنین تلاش‌هایی می‌تواند نوآوری آمریکا را در رقابت با چین محدود کند. سرمایه‌گذارانی مانند Andreessen Horowitz و Y Combinator برخی از مخالفت‌ها با SB 1047 را رهبری کردند و در ماه‌های اخیر، دولت ترامپ بارها تهدید کرده است که ایالت‌ها را از تصویب مقررات هوش مصنوعی به طور کامل منع می‌کند.

یکی از رایج‌ترین استدلال‌ها علیه لوایح ایمنی هوش مصنوعی این است که ایالت‌ها باید این موضوع را به دولت‌های فدرال واگذار کنند. مت پرالت، رئیس سیاست هوش مصنوعی Andreessen Horowitz، و جای راماسوامی، مدیر ارشد حقوقی، هفته گذشته یک پست وبلاگی منتشر کردند و استدلال کردند که بسیاری از لوایح هوش مصنوعی ایالتی امروزی خطر نقض بند تجارت قانون اساسی را دارند – که دولت‌های ایالتی را از تصویب قوانینی که فراتر از مرزهای خود می‌روند و به تجارت بین ایالتی آسیب می‌رسانند، محدود می‌کند.

با این حال، جک کلارک، یکی از بنیانگذاران Anthropic، در پستی در X استدلال می‌کند که صنعت فناوری در سال‌های آینده سیستم‌های هوش مصنوعی قدرتمندی خواهد ساخت و نمی‌تواند منتظر اقدام دولت فدرال باشد.

کلارک گفت: «ما مدت‌هاست گفته‌ایم که یک استاندارد فدرال را ترجیح می‌دهیم. اما در غیاب آن، این یک طرح محکم برای حکمرانی هوش مصنوعی ایجاد می‌کند که نمی‌توان آن را نادیده گرفت.»

کریس لهین، مدیر ارشد امور جهانی OpenAI، در نامه‌ای به فرماندار نیوسام در ماه مرداد استدلال کرد که او نباید هیچ مقررات هوش مصنوعی را تصویب کند که استارت‌آپ‌ها را از کالیفرنیا بیرون کند – اگرچه این نامه به طور خاص به SB 53 اشاره نکرد.

مایلز بروندج، رئیس سابق تحقیقات سیاست OpenAI، در پستی در X گفت که نامه لهین «پر از زباله‌های گمراه‌کننده درباره SB 53 و سیاست هوش مصنوعی به طور کلی است.» لازم به ذکر است که SB 53 صرفاً به دنبال تنظیم بزرگترین شرکت‌های هوش مصنوعی جهان است – به ویژه شرکت‌هایی که درآمد ناخالص بیش از 500 میلیون دلار داشته‌اند.

علیرغم انتقادات، کارشناسان سیاست‌گذاری می‌گویند SB 53 رویکردی معتدل‌تر نسبت به لوایح ایمنی هوش مصنوعی قبلی است. دین بال، عضو ارشد بنیاد نوآوری آمریکایی و مشاور سابق سیاست هوش مصنوعی کاخ سفید، در یک پست وبلاگی در ماه مرداد گفت که معتقد است SB 53 اکنون شانس خوبی برای تبدیل شدن به قانون دارد. بال که از SB 1047 انتقاد کرده بود، گفت که نویسندگان SB 53 «احترام به واقعیت فنی» و همچنین «میزانی از خویشتنداری قانونی» نشان داده‌اند.

سناتور وینر قبلاً گفته بود که SB 53 به شدت تحت تأثیر یک پانل سیاست‌گذاری متشکل از کارشناسان بوده است که فرماندار نیوسام تشکیل داده بود – به طور مشترک توسط فی-فی لی، محقق برجسته استنفورد و یکی از بنیانگذاران World Labs، رهبری می‌شد – تا به کالیفرنیا در مورد چگونگی تنظیم هوش مصنوعی مشاوره دهد.

اکثر آزمایشگاه‌های هوش مصنوعی در حال حاضر دارای نسخه‌ای از سیاست ایمنی داخلی هستند که SB 53 ملزم می‌کند. OpenAI، Google DeepMind و Anthropic به طور منظم گزارش‌های ایمنی را برای مدل‌های خود منتشر می‌کنند. با این حال، این شرکت‌ها توسط هیچ‌کس جز خودشان ملزم به انجام این کار نیستند و گاهی اوقات از تعهدات ایمنی خود عقب می‌مانند. هدف SB 53 تعیین این الزامات به عنوان قانون ایالتی است، با عواقب مالی در صورت عدم انطباق یک آزمایشگاه هوش مصنوعی.

در اوایل شهریور ماه، قانونگذاران کالیفرنیا SB 53 را اصلاح کردند تا بخشی از این لایحه را که از توسعه‌دهندگان مدل‌های هوش مصنوعی می‌خواست توسط اشخاص ثالث مورد ممیزی قرار گیرند، حذف کنند. شرکت‌های فناوری قبلاً در نبردهای سیاستی دیگر هوش مصنوعی با این نوع ممیزی‌های شخص ثالث مبارزه کرده‌اند و استدلال می‌کنند که آنها بیش از حد پرهزینه هستند.

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *