رهبران سیلیکون ولی، از جمله دیوید ساکس، مسئول ارشد هوش مصنوعی و ارزهای دیجیتال کاخ سفید، و جیسون کوون، مدیر ارشد استراتژی OpenAI، این هفته به خاطر اظهاراتشان درباره گروههایی که ایمنی هوش مصنوعی را ترویج میکنند، جنجال به پا کردند. آنها در مواردی جداگانه ادعا کردند که برخی از طرفداران ایمنی هوش مصنوعی آنقدرها هم که به نظر میرسند درستکار نیستند و یا به نفع خود عمل میکنند یا عروسک گردانهای میلیاردر در پشت پرده دارند.
گروههای ایمنی هوش مصنوعی که با خبرنگار صحبت کردند، میگویند اتهامات ساکس و OpenAI آخرین تلاش سیلیکون ولی برای ارعاب منتقدانش است، اما قطعا اولین بار نیست. در سال ۱۴۰۳، برخی از شرکتهای سرمایهگذاری خطرپذیر شایعاتی را پخش کردند مبنی بر اینکه لایحه ایمنی هوش مصنوعی کالیفرنیا، SB 1047، بنیانگذاران استارتاپها را به زندان میفرستد. موسسه بروکینگز این شایعه را به عنوان یکی از “تحریفهای” متعدد درباره این لایحه معرفی کرد، اما در نهایت فرماندار گاوین نیوسام آن را وتو کرد.
صرف نظر از اینکه ساکس و OpenAI قصد ارعاب منتقدان را داشتهاند یا نه، اقدامات آنها به اندازه کافی تعدادی از مدافعان ایمنی هوش مصنوعی را ترسانده است. بسیاری از رهبران سازمانهای غیرانتفاعی که خبرنگار در هفته گذشته با آنها تماس گرفت، خواستند به شرط ناشناس ماندن صحبت کنند تا گروههایشان از تلافی در امان بمانند.
این جنجال، تنش فزاینده سیلیکون ولی بین ساختن هوش مصنوعی به شیوهای مسئولانه و ساختن آن به عنوان یک محصول مصرفی عظیم را برجسته میکند.
روز سهشنبه، ساکس پستی در X نوشت و ادعا کرد که Anthropic – که نگرانیهایی را در مورد توانایی هوش مصنوعی در کمک به بیکاری، حملات سایبری و آسیبهای فاجعهبار به جامعه مطرح کرده است – صرفاً برای تصویب قوانینی که به نفع خودش است و استارتاپهای کوچکتر را در کاغذبازی غرق میکند، ایجاد ترس میکند. Anthropic تنها آزمایشگاه بزرگ هوش مصنوعی بود که از لایحه سنای ۵۳ (SB 53) کالیفرنیا حمایت کرد، لایحهای که الزامات گزارشدهی ایمنی را برای شرکتهای بزرگ هوش مصنوعی تعیین میکند، که ماه گذشته به قانون تبدیل شد.
ساکس در پاسخ به مقالهای پربازدید از جک کلارک، یکی از بنیانگذاران Anthropic، درباره ترسهایش در مورد هوش مصنوعی بود. کلارک این مقاله را به عنوان سخنرانی در کنفرانس ایمنی هوش مصنوعی Curve در برکلی چند هفته قبل ارائه کرد. حضور در میان تماشاگران، قطعا مانند یک گزارش واقعی از تردیدهای یک متخصص فناوری در مورد محصولاتش به نظر میرسید، اما ساکس آن را اینطور ندید.
ساکس گفت Anthropic در حال اجرای یک “استراتژی پیچیده تسخیر نظارتی” است، اگرچه لازم به ذکر است که یک استراتژی واقعاً پیچیده احتمالاً شامل دشمن کردن دولت فدرال نمیشود. ساکس در یک پست بعدی در X خاطرنشان کرد که Anthropic “به طور مداوم خود را به عنوان دشمن دولت ترامپ معرفی کرده است.”
همچنین در این هفته، جیسون کوون، مدیر ارشد استراتژی OpenAI، پستی در X نوشت و توضیح داد که چرا این شرکت در حال ارسال احضاریه به سازمانهای غیرانتفاعی ایمنی هوش مصنوعی، مانند Encode، یک سازمان غیرانتفاعی که از سیاست مسئولانه هوش مصنوعی حمایت میکند، است. (احضاریه یک دستور قانونی است که خواستار اسناد یا شهادت است.) کوون گفت پس از اینکه ایلان ماسک از OpenAI شکایت کرد – به دلیل نگرانی از اینکه سازنده ChatGPT از ماموریت غیرانتفاعی خود منحرف شده است – OpenAI مشکوک شد که چگونه چندین سازمان نیز با تجدید ساختار آن مخالفت کردند. Encode در حمایت از شکایت ماسک، یک لایحه دوستانه ارائه کرد و سایر سازمانهای غیرانتفاعی به طور علنی علیه تجدید ساختار OpenAI صحبت کردند.
کوون گفت: «این سوالات شفافسازی را در مورد اینکه چه کسی از آنها حمایت مالی میکند و آیا هماهنگی وجود دارد یا خیر، ایجاد کرد.»
شبکه خبری انبیسی این هفته گزارش داد که OpenAI احضاریههای گستردهای را برای Encode و شش سازمان غیرانتفاعی دیگر که از این شرکت انتقاد کردهاند، ارسال کرده و خواستار ارتباطات آنها در رابطه با دو تن از بزرگترین مخالفان OpenAI، ماسک و مارک زاکربرگ، مدیرعامل متا شده است. OpenAI همچنین از Encode ارتباطات مربوط به حمایتش از SB 53 را خواستار شد.
یکی از رهبران برجسته ایمنی هوش مصنوعی به خبرنگار گفت که شکاف فزایندهای بین تیم امور دولتی OpenAI و سازمان تحقیقاتی آن وجود دارد. در حالی که محققان ایمنی OpenAI مرتباً گزارشهایی را منتشر میکنند که خطرات سیستمهای هوش مصنوعی را افشا میکند، واحد سیاستگذاری OpenAI علیه SB 53 لابی کرد و گفت ترجیح میدهد قوانین یکنواختی در سطح فدرال داشته باشد.
جاشوا آچیام، رئیس همسویی ماموریت OpenAI، در پستی در X در این هفته در مورد ارسال احضاریه به سازمانهای غیرانتفاعی توسط شرکتش صحبت کرد.
آچیام گفت: «با اینکه ممکن است کل حرفهام را به خطر بیندازم، میگویم: این خیلی خوب به نظر نمیرسد.»
برندن اشتاینهاوزر، مدیرعامل سازمان غیرانتفاعی ایمنی هوش مصنوعی اتحاد برای هوش مصنوعی ایمن (که توسط OpenAI احضار نشده است)، به خبرنگار گفت که به نظر میرسد OpenAI متقاعد شده است که منتقدانش بخشی از یک توطئه به رهبری ماسک هستند. با این حال، او استدلال میکند که اینطور نیست و بخش زیادی از جامعه ایمنی هوش مصنوعی از شیوههای ایمنی xAI، یا فقدان آن، بسیار انتقاد میکنند.
اشتاینهاوزر گفت: «از طرف OpenAI، این به معنای ساکت کردن منتقدان، ارعاب آنها و منصرف کردن سایر سازمانهای غیرانتفاعی از انجام همین کار است. به نظر من ساکس نگران این است که جنبش [ایمنی هوش مصنوعی] در حال رشد است و مردم میخواهند این شرکتها را مسئول بدانند.»
سریرام کریشنان، مشاور ارشد سیاستگذاری هوش مصنوعی کاخ سفید و یکی از شرکای سابق a16z، این هفته با یک پست در رسانههای اجتماعی خود به این گفتگو پرداخت و مدافعان ایمنی هوش مصنوعی را افرادی دور از دسترس خواند. او از سازمانهای ایمنی هوش مصنوعی خواست تا با “افراد در دنیای واقعی که از هوش مصنوعی در خانهها و سازمانهای خود استفاده میکنند، میفروشند و آن را به کار میگیرند” صحبت کنند.
یک مطالعه جدید Pew نشان داد که تقریباً نیمی از آمریکاییها بیشتر نگران هوش مصنوعی هستند تا هیجانزده، اما مشخص نیست که دقیقاً چه چیزی آنها را نگران میکند. یک مطالعه جدید دیگر با جزئیات بیشتری به این موضوع پرداخت و دریافت که رای دهندگان آمریکایی بیشتر نگران از دست دادن شغل و دیپ فیکها هستند تا خطرات فاجعهباری که ناشی از هوش مصنوعی است، که جنبش ایمنی هوش مصنوعی عمدتاً بر آن متمرکز است.
پرداختن به این نگرانیهای ایمنی میتواند به قیمت رشد سریع صنعت هوش مصنوعی تمام شود – این مصالحهای است که بسیاری در سیلیکون ولی را نگران میکند. با حمایت سرمایهگذاری در هوش مصنوعی از بخش زیادی از اقتصاد آمریکا، ترس از مقررات بیش از حد قابل درک است.
اما پس از سالها پیشرفت بدون مقررات هوش مصنوعی، به نظر میرسد که جنبش ایمنی هوش مصنوعی در آستانه سال ۱۴۰۵ در حال به دست آوردن حرکت واقعی است. تلاشهای سیلیکون ولی برای مبارزه با گروههای متمرکز بر ایمنی ممکن است نشانهای از این باشد که آنها در حال کار هستند.








