رهبران سیلیکون ولی، از جمله دیوید ساکس، مسئول ارشد هوش مصنوعی و ارزهای دیجیتال کاخ سفید، و جیسون کوون، مدیر ارشد استراتژی OpenAI، این هفته به خاطر اظهاراتشان درباره گروه‌هایی که ایمنی هوش مصنوعی را ترویج می‌کنند، جنجال به پا کردند. آنها در مواردی جداگانه ادعا کردند که برخی از طرفداران ایمنی هوش مصنوعی آنقدرها هم که به نظر می‌رسند درستکار نیستند و یا به نفع خود عمل می‌کنند یا عروسک گردان‌های میلیاردر در پشت پرده دارند.

گروه‌های ایمنی هوش مصنوعی که با خبرنگار صحبت کردند، می‌گویند اتهامات ساکس و OpenAI آخرین تلاش سیلیکون ولی برای ارعاب منتقدانش است، اما قطعا اولین بار نیست. در سال ۱۴۰۳، برخی از شرکت‌های سرمایه‌گذاری خطرپذیر شایعاتی را پخش کردند مبنی بر اینکه لایحه ایمنی هوش مصنوعی کالیفرنیا، SB 1047، بنیانگذاران استارتاپ‌ها را به زندان می‌فرستد. موسسه بروکینگز این شایعه را به عنوان یکی از “تحریف‌های” متعدد درباره این لایحه معرفی کرد، اما در نهایت فرماندار گاوین نیوسام آن را وتو کرد.

صرف نظر از اینکه ساکس و OpenAI قصد ارعاب منتقدان را داشته‌اند یا نه، اقدامات آنها به اندازه کافی تعدادی از مدافعان ایمنی هوش مصنوعی را ترسانده است. بسیاری از رهبران سازمان‌های غیرانتفاعی که خبرنگار در هفته گذشته با آنها تماس گرفت، خواستند به شرط ناشناس ماندن صحبت کنند تا گروه‌هایشان از تلافی در امان بمانند.

این جنجال، تنش فزاینده سیلیکون ولی بین ساختن هوش مصنوعی به شیوه‌ای مسئولانه و ساختن آن به عنوان یک محصول مصرفی عظیم را برجسته می‌کند.

روز سه‌شنبه، ساکس پستی در X نوشت و ادعا کرد که Anthropic – که نگرانی‌هایی را در مورد توانایی هوش مصنوعی در کمک به بیکاری، حملات سایبری و آسیب‌های فاجعه‌بار به جامعه مطرح کرده است – صرفاً برای تصویب قوانینی که به نفع خودش است و استارتاپ‌های کوچک‌تر را در کاغذبازی غرق می‌کند، ایجاد ترس می‌کند. Anthropic تنها آزمایشگاه بزرگ هوش مصنوعی بود که از لایحه سنای ۵۳ (SB 53) کالیفرنیا حمایت کرد، لایحه‌ای که الزامات گزارش‌دهی ایمنی را برای شرکت‌های بزرگ هوش مصنوعی تعیین می‌کند، که ماه گذشته به قانون تبدیل شد.

ساکس در پاسخ به مقاله‌ای پربازدید از جک کلارک، یکی از بنیانگذاران Anthropic، درباره ترس‌هایش در مورد هوش مصنوعی بود. کلارک این مقاله را به عنوان سخنرانی در کنفرانس ایمنی هوش مصنوعی Curve در برکلی چند هفته قبل ارائه کرد. حضور در میان تماشاگران، قطعا مانند یک گزارش واقعی از تردیدهای یک متخصص فناوری در مورد محصولاتش به نظر می‌رسید، اما ساکس آن را اینطور ندید.

ساکس گفت Anthropic در حال اجرای یک “استراتژی پیچیده تسخیر نظارتی” است، اگرچه لازم به ذکر است که یک استراتژی واقعاً پیچیده احتمالاً شامل دشمن کردن دولت فدرال نمی‌شود. ساکس در یک پست بعدی در X خاطرنشان کرد که Anthropic “به طور مداوم خود را به عنوان دشمن دولت ترامپ معرفی کرده است.”

همچنین در این هفته، جیسون کوون، مدیر ارشد استراتژی OpenAI، پستی در X نوشت و توضیح داد که چرا این شرکت در حال ارسال احضاریه به سازمان‌های غیرانتفاعی ایمنی هوش مصنوعی، مانند Encode، یک سازمان غیرانتفاعی که از سیاست مسئولانه هوش مصنوعی حمایت می‌کند، است. (احضاریه یک دستور قانونی است که خواستار اسناد یا شهادت است.) کوون گفت پس از اینکه ایلان ماسک از OpenAI شکایت کرد – به دلیل نگرانی از اینکه سازنده ChatGPT از ماموریت غیرانتفاعی خود منحرف شده است – OpenAI مشکوک شد که چگونه چندین سازمان نیز با تجدید ساختار آن مخالفت کردند. Encode در حمایت از شکایت ماسک، یک لایحه دوستانه ارائه کرد و سایر سازمان‌های غیرانتفاعی به طور علنی علیه تجدید ساختار OpenAI صحبت کردند.

کوون گفت: «این سوالات شفاف‌سازی را در مورد اینکه چه کسی از آنها حمایت مالی می‌کند و آیا هماهنگی وجود دارد یا خیر، ایجاد کرد.»

شبکه خبری ان‌بی‌سی این هفته گزارش داد که OpenAI احضاریه‌های گسترده‌ای را برای Encode و شش سازمان غیرانتفاعی دیگر که از این شرکت انتقاد کرده‌اند، ارسال کرده و خواستار ارتباطات آنها در رابطه با دو تن از بزرگترین مخالفان OpenAI، ماسک و مارک زاکربرگ، مدیرعامل متا شده است. OpenAI همچنین از Encode ارتباطات مربوط به حمایتش از SB 53 را خواستار شد.

یکی از رهبران برجسته ایمنی هوش مصنوعی به خبرنگار گفت که شکاف فزاینده‌ای بین تیم امور دولتی OpenAI و سازمان تحقیقاتی آن وجود دارد. در حالی که محققان ایمنی OpenAI مرتباً گزارش‌هایی را منتشر می‌کنند که خطرات سیستم‌های هوش مصنوعی را افشا می‌کند، واحد سیاست‌گذاری OpenAI علیه SB 53 لابی کرد و گفت ترجیح می‌دهد قوانین یکنواختی در سطح فدرال داشته باشد.

جاشوا آچیام، رئیس همسویی ماموریت OpenAI، در پستی در X در این هفته در مورد ارسال احضاریه به سازمان‌های غیرانتفاعی توسط شرکتش صحبت کرد.

آچیام گفت: «با اینکه ممکن است کل حرفه‌ام را به خطر بیندازم، می‌گویم: این خیلی خوب به نظر نمی‌رسد.»

برندن اشتاینهاوزر، مدیرعامل سازمان غیرانتفاعی ایمنی هوش مصنوعی اتحاد برای هوش مصنوعی ایمن (که توسط OpenAI احضار نشده است)، به خبرنگار گفت که به نظر می‌رسد OpenAI متقاعد شده است که منتقدانش بخشی از یک توطئه به رهبری ماسک هستند. با این حال، او استدلال می‌کند که اینطور نیست و بخش زیادی از جامعه ایمنی هوش مصنوعی از شیوه‌های ایمنی xAI، یا فقدان آن، بسیار انتقاد می‌کنند.

اشتاینهاوزر گفت: «از طرف OpenAI، این به معنای ساکت کردن منتقدان، ارعاب آنها و منصرف کردن سایر سازمان‌های غیرانتفاعی از انجام همین کار است. به نظر من ساکس نگران این است که جنبش [ایمنی هوش مصنوعی] در حال رشد است و مردم می‌خواهند این شرکت‌ها را مسئول بدانند.»

سریرام کریشنان، مشاور ارشد سیاست‌گذاری هوش مصنوعی کاخ سفید و یکی از شرکای سابق a16z، این هفته با یک پست در رسانه‌های اجتماعی خود به این گفتگو پرداخت و مدافعان ایمنی هوش مصنوعی را افرادی دور از دسترس خواند. او از سازمان‌های ایمنی هوش مصنوعی خواست تا با “افراد در دنیای واقعی که از هوش مصنوعی در خانه‌ها و سازمان‌های خود استفاده می‌کنند، می‌فروشند و آن را به کار می‌گیرند” صحبت کنند.

یک مطالعه جدید Pew نشان داد که تقریباً نیمی از آمریکایی‌ها بیشتر نگران هوش مصنوعی هستند تا هیجان‌زده، اما مشخص نیست که دقیقاً چه چیزی آنها را نگران می‌کند. یک مطالعه جدید دیگر با جزئیات بیشتری به این موضوع پرداخت و دریافت که رای دهندگان آمریکایی بیشتر نگران از دست دادن شغل و دیپ فیک‌ها هستند تا خطرات فاجعه‌باری که ناشی از هوش مصنوعی است، که جنبش ایمنی هوش مصنوعی عمدتاً بر آن متمرکز است.

پرداختن به این نگرانی‌های ایمنی می‌تواند به قیمت رشد سریع صنعت هوش مصنوعی تمام شود – این مصالحه‌ای است که بسیاری در سیلیکون ولی را نگران می‌کند. با حمایت سرمایه‌گذاری در هوش مصنوعی از بخش زیادی از اقتصاد آمریکا، ترس از مقررات بیش از حد قابل درک است.

اما پس از سال‌ها پیشرفت بدون مقررات هوش مصنوعی، به نظر می‌رسد که جنبش ایمنی هوش مصنوعی در آستانه سال ۱۴۰۵ در حال به دست آوردن حرکت واقعی است. تلاش‌های سیلیکون ولی برای مبارزه با گروه‌های متمرکز بر ایمنی ممکن است نشانه‌ای از این باشد که آنها در حال کار هستند.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *