روز چهارشنبه، ۲۷ شهریور ۱۴۰۴، شرکت امنیت هوش مصنوعی Irregular از دریافت ۸۰ میلیون دلار بودجه جدید خبر داد. این دور سرمایه‌گذاری به رهبری Sequoia Capital و Redpoint Ventures و با مشارکت مدیرعامل Wiz، آصاف راپاپورت، انجام شد. یک منبع نزدیک به این معامله اعلام کرد که ارزش Irregular در این دور، ۴۵۰ میلیون دلار ارزیابی شده است.

«دیدگاه ما این است که به زودی، بخش زیادی از فعالیت‌های اقتصادی ناشی از تعامل انسان با هوش مصنوعی و تعامل هوش مصنوعی با هوش مصنوعی خواهد بود،» دن لاهاو، یکی از بنیان‌گذاران Irregular، به خبرنگار گفت: «و این موضوع، لایه‌های امنیتی را در نقاط مختلف از بین خواهد برد.»

Irregular که قبلاً با نام Pattern Labs شناخته می‌شد، در حال حاضر یک بازیگر مهم در ارزیابی‌های هوش مصنوعی است. کار این شرکت در ارزیابی‌های امنیتی Claude 3.7 Sonnet و همچنین مدل‌های o3 و o4-mini شرکت OpenAI مورد استناد قرار گرفته است. به طور کلی، چارچوب این شرکت برای امتیازدهی به توانایی یک مدل در تشخیص آسیب‌پذیری‌ها (با نام SOLVE) به طور گسترده در صنعت استفاده می‌شود.

در حالی که Irregular کار قابل توجهی در زمینه خطرات موجود در مدل‌ها انجام داده است، این شرکت با هدف دستیابی به چیزی بلندپروازانه‌تر سرمایه‌گذاری می‌کند: شناسایی خطرات و رفتارهای نوظهور قبل از اینکه در دنیای واقعی ظاهر شوند. این شرکت یک سیستم پیچیده از محیط‌های شبیه‌سازی شده ایجاد کرده است که امکان آزمایش فشرده یک مدل را قبل از انتشار آن فراهم می‌کند.

«ما شبیه‌سازی‌های شبکه‌ای پیچیده‌ای داریم که در آن هوش مصنوعی هم نقش مهاجم و هم مدافع را ایفا می‌کند،» عمر نِوو، یکی از بنیان‌گذاران Irregular، می‌گوید. «بنابراین وقتی یک مدل جدید منتشر می‌شود، می‌توانیم ببینیم که دفاع‌ها کجا کار می‌کنند و کجا نه.»

با ظهور خطرات بیشتر، امنیت به یک نقطه تمرکز شدید برای صنعت هوش مصنوعی تبدیل شده است، زیرا خطرات بالقوه ناشی از مدل‌های پیشرفته افزایش یافته است. OpenAI تابستان امسال اقدامات امنیتی داخلی خود را با هدف جلوگیری از جاسوسی شرکتی احتمالی، اصلاح کرد.

در عین حال، مدل‌های هوش مصنوعی به طور فزاینده‌ای در یافتن آسیب‌پذیری‌های نرم‌افزاری مهارت پیدا می‌کنند – قدرتی که پیامدهای جدی هم برای مهاجمان و هم برای مدافعان دارد.

به گفته بنیان‌گذاران Irregular، این تنها یکی از مشکلات امنیتی ناشی از افزایش قابلیت‌های مدل‌های زبانی بزرگ است.

«اگر هدف آزمایشگاه‌های پیشرفته ایجاد مدل‌هایی پیچیده‌تر و توانمندتر است، هدف ما ایمن‌سازی این مدل‌ها است،» لاهاو می‌گوید. «اما این یک هدف متحرک است، بنابراین ذاتاً کار بسیار، بسیار، بسیار بیشتری در آینده وجود دارد که باید انجام شود.»

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *