لایحه SB 53، قانون ایمنی و شفافیت هوش مصنوعی که فرماندار کالیفرنیا، گاوین نیوسام، این هفته آن را امضا کرد، ثابت می‌کند که قوانین ایالتی لزوماً مانع پیشرفت هوش مصنوعی نمی‌شوند.

این نظر آدام بیلن، معاون سیاست‌گذاری عمومی در گروه حامی جوانان Encode AI است که در قسمت امروز Equity بیان شد.

بیلن به خبرنگار گفت: «واقعیت این است که سیاست‌گذاران خودشان می‌دانند که باید کاری انجام دهیم و از کار بر روی میلیون‌ها موضوع دیگر می‌دانند که راهی برای تصویب قوانینی وجود دارد که واقعاً از نوآوری محافظت کند – که برای من مهم است – در عین حال اطمینان حاصل شود که این محصولات ایمن هستند.»

در هسته اصلی، SB 53 اولین قانون در نوع خود در کشور است که از آزمایشگاه‌های بزرگ هوش مصنوعی می‌خواهد در مورد پروتکل‌های ایمنی و امنیتی خود شفاف باشند – به طور خاص در مورد اینکه چگونه از مدل‌های خود در برابر خطرات فاجعه‌بار، مانند استفاده برای انجام حملات سایبری به زیرساخت‌های حیاتی یا ساخت سلاح‌های بیولوژیکی جلوگیری می‌کنند. این قانون همچنین شرکت‌ها را ملزم می‌کند که به این پروتکل‌ها پایبند باشند، که توسط دفتر خدمات اضطراری اجرا خواهد شد.

بیلن به خبرنگار گفت: «شرکت‌ها در حال حاضر کارهایی را انجام می‌دهند که ما در این لایحه از آن‌ها می‌خواهیم. آن‌ها آزمایش‌های ایمنی را روی مدل‌های خود انجام می‌دهند. آن‌ها کارت‌های مدل را منتشر می‌کنند. آیا آن‌ها شروع به صرفه‌جویی در برخی زمینه‌ها در برخی شرکت‌ها می‌کنند؟ بله. و به همین دلیل است که لوایحی مانند این مهم هستند.»

بیلن همچنین خاطرنشان کرد که برخی از شرکت‌های هوش مصنوعی سیاستی در مورد کاهش استانداردهای ایمنی تحت فشار رقابتی دارند. به عنوان مثال، OpenAI به طور علنی اعلام کرده است که ممکن است در صورت انتشار یک سیستم پرخطر توسط یک آزمایشگاه هوش مصنوعی رقیب بدون محافظت‌های مشابه، الزامات ایمنی خود را “تعدیل” کند. بیلن استدلال می‌کند که این سیاست می‌تواند تعهدات ایمنی موجود شرکت‌ها را اجرا کند و از کاهش هزینه‌ها تحت فشار رقابتی یا مالی جلوگیری کند.

در حالی که مخالفت عمومی با SB 53 در مقایسه با سلف خود SB 1047، که نیوسام سال گذشته آن را وتو کرد، کمتر بود، اما لفاظی‌ها در سیلیکون ولی و در میان اکثر آزمایشگاه‌های هوش مصنوعی این بوده است که تقریباً هر قانونی در مورد هوش مصنوعی برای پیشرفت ناخوشایند است و در نهایت مانع از پیشی گرفتن ایالات متحده از چین می‌شود.

به همین دلیل است که شرکت‌هایی مانند متا، شرکت‌های سرمایه‌گذاری خطرپذیر مانند اندریسن هوروویتز و افراد قدرتمندی مانند گرگ براکمن، رئیس OpenAI، به طور جمعی صدها میلیون دلار به سوپر PACها تزریق می‌کنند تا از سیاستمداران طرفدار هوش مصنوعی در انتخابات ایالتی حمایت کنند. و به همین دلیل است که همین نیروها در اوایل سال جاری برای یک مهلت هوش مصنوعی فشار آوردند که ایالت‌ها را از قانون‌گذاری هوش مصنوعی به مدت 10 سال منع می‌کرد.

Encode AI یک ائتلاف متشکل از بیش از 200 سازمان را برای تلاش برای لغو این پیشنهاد رهبری کرد، اما بیلن می‌گوید که این مبارزه به پایان نرسیده است. سناتور تد کروز، که از این مهلت حمایت می‌کرد، در تلاش است تا استراتژی جدیدی را برای دستیابی به همان هدف بازداری فدرال از قوانین ایالتی به کار گیرد. در شهریور ماه، کروز لایحه SANDBOX را معرفی کرد که به شرکت‌های هوش مصنوعی اجازه می‌دهد تا برای معافیت‌هایی برای دور زدن موقت برخی از مقررات فدرال به مدت حداکثر 10 سال درخواست دهند. بیلن همچنین پیش‌بینی می‌کند که لایحه آتی یک استاندارد فدرال هوش مصنوعی را ایجاد کند که به عنوان یک راه‌حل میانی ارائه می‌شود، اما در واقع قوانین ایالتی را نادیده می‌گیرد.

او هشدار داد که قانون‌گذاری فدرال هوش مصنوعی با دامنه محدود می‌تواند “فدرالیسم را برای مهم‌ترین فناوری زمان ما حذف کند.”

بیلن گفت: “اگر به من بگویید که SB 53 لایحه‌ای است که جایگزین تمام لوایح ایالتی در مورد همه چیزهای مربوط به هوش مصنوعی و تمام خطرات احتمالی می‌شود، به شما می‌گویم که این احتمالاً ایده خوبی نیست و این لایحه برای زیرمجموعه خاصی از چیزها طراحی شده است.”

آدام بیلن، معاون سیاست‌گذاری عمومی، Encode AIImage Credits:Encode AI

در حالی که او موافق است که رقابت هوش مصنوعی با چین مهم است و سیاست‌گذاران باید قوانینی را وضع کنند که از پیشرفت آمریکا حمایت کند، اما می‌گوید از بین بردن لوایح ایالتی – که عمدتاً بر روی دیپ‌فیک‌ها، شفافیت، تبعیض الگوریتمی، ایمنی کودکان و استفاده دولت از هوش مصنوعی تمرکز دارند – راه انجام این کار نیست.

او گفت: “آیا لوایحی مانند SB 53 چیزی است که مانع از پیشی گرفتن ما از چین می‌شود؟ نه.” “من فکر می‌کنم این از نظر فکری صادقانه نیست که بگوییم این چیزی است که ما را در این رقابت متوقف می‌کند.”

او افزود: “اگر چیزی که برای شما مهم است، پیشی گرفتن از چین در رقابت هوش مصنوعی است – و من به آن اهمیت می‌دهم – پس چیزهایی که برای آن فشار می‌آورید، مواردی مانند کنترل صادرات در کنگره است.” بیلن گفت: “شما اطمینان حاصل می‌کنید که شرکت‌های آمریکایی تراشه‌ها را دارند. اما این چیزی نیست که صنعت برای آن تلاش می‌کند.”

پیشنهادهای قانونی مانند قانون امنیت تراشه (Chip Security Act) با هدف جلوگیری از انحراف تراشه‌های پیشرفته هوش مصنوعی به چین از طریق کنترل صادرات و دستگاه‌های ردیابی است و قانون موجود CHIPS and Science Act به دنبال افزایش تولید داخلی تراشه است. با این حال، برخی از شرکت‌های بزرگ فناوری، از جمله OpenAI و Nvidia، نگرانی‌هایی را در مورد اثربخشی، رقابت‌پذیری و آسیب‌پذیری‌های امنیتی، در مورد جنبه‌های خاصی از این تلاش‌ها ابراز کرده‌اند.

Nvidia دلایل خود را دارد – این شرکت انگیزه مالی قوی برای ادامه فروش تراشه به چین دارد، که از لحاظ تاریخی بخش قابل توجهی از درآمد جهانی آن را تشکیل می‌دهد. بیلن حدس زد که OpenAI می‌تواند از حمایت از صادرات تراشه خودداری کند تا در نزد تامین کنندگان مهمی مانند Nvidia جایگاه خوبی داشته باشد.

همچنین پیام‌رسانی‌های متناقضی از سوی دولت ترامپ وجود داشته است. سه ماه پس از گسترش ممنوعیت صادرات تراشه‌های پیشرفته هوش مصنوعی به چین در فروردین ۱۴۰۴، دولت مسیر خود را معکوس کرد و به Nvidia و AMD اجازه داد تا در ازای 15 درصد از درآمد، برخی از تراشه‌ها را به چین بفروشند.

بیلن گفت: “شما می‌بینید که مردم در کنگره به سمت لوایحی مانند قانون امنیت تراشه حرکت می‌کنند که کنترل صادرات را بر چین اعمال می‌کند.” “در این میان، این روایت برای از بین بردن لوایح ایالتی که در واقع بسیار ملایم هستند، همچنان تقویت می‌شود.”

بیلن افزود که SB 53 نمونه‌ای از دموکراسی در عمل است – از صنعت و سیاست‌گذاران که با هم کار می‌کنند تا به نسخه‌ای از یک لایحه برسند که همه بتوانند با آن موافقت کنند. این “بسیار زشت و آشفته” است، اما “این روند دموکراسی و فدرالیسم کل بنیان کشور و نظام اقتصادی ما است و من امیدوارم که ما به انجام موفقیت‌آمیز آن ادامه دهیم.”

او گفت: “من فکر می‌کنم SB 53 یکی از بهترین نقاط اثبات این است که این هنوز هم می‌تواند کارساز باشد.”

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *