کنفرانس سالانه فناوری Amazon Web Services، AWS re:Invent، یک روز دیگر را با انبوهی از اخبار محصولات و سخنرانی‌های اصلی به پایان رساند – به علاوه داستان‌های موفقیت مشتریان که همیشه وجود دارند.

موضوعی که جای تعجب ندارد، هوش مصنوعی برای شرکت‌ها است. امسال همه چیز درباره ارتقاهایی است که به مشتریان کنترل بیشتری برای سفارشی‌سازی عوامل هوش مصنوعی می‌دهد، از جمله عاملی که AWS ادعا می‌کند می‌تواند از شما یاد بگیرد و سپس به طور مستقل برای روزها کار کند.

AWS re:Invent سال ۱۴۰۴، که تا ۱۵ آذر ادامه دارد، با سخنرانی مت گارمن، مدیرعامل AWS، آغاز شد، که به این ایده پرداخت که عوامل هوش مصنوعی می‌توانند “ارزش واقعی” هوش مصنوعی را آزاد کنند.

او در سخنرانی اصلی خود در ۱۲ آذر گفت: “دستیاران هوش مصنوعی در حال جایگزین شدن با عوامل هوش مصنوعی هستند که می‌توانند وظایف را انجام دهند و به نمایندگی از شما خودکارسازی کنند. اینجاست که ما شروع به دیدن بازده مادی کسب و کار از سرمایه‌گذاری‌های هوش مصنوعی شما می‌کنیم.”

در ۱۳ آذر، کنفرانس با پیام‌رسانی عوامل هوش مصنوعی و همچنین بررسی عمیق‌تر داستان‌های مشتریان ادامه یافت. سوامی سیواسوبرامانیان، معاون هوش مصنوعی عاملی در AWS، یکی از سخنرانی‌های اصلی را ارائه کرد. اگر بگوییم او خوشبین بود، شاید دست کم گرفته باشیم.

سیواسوبرامانیان در این سخنرانی گفت: “ما در زمانه تغییرات بزرگی زندگی می‌کنیم. برای اولین بار در تاریخ، می‌توانیم آنچه را که می‌خواهیم به زبان طبیعی انجام دهیم، توصیف کنیم و عوامل، برنامه را تولید می‌کنند. آن‌ها کد را می‌نویسند، ابزارهای لازم را فراخوانی می‌کنند و راه حل کامل را اجرا می‌کنند. عوامل به شما این آزادی را می‌دهند که بدون محدودیت بسازید و سرعت حرکت از ایده به تأثیر را به طور چشمگیری افزایش دهید.”

در حالی که اخبار مربوط به عوامل هوش مصنوعی وعده می‌دهد که حضور مستمری در سراسر AWS re:Invent ۱۴۰۴ داشته باشد، اعلامیه‌های دیگری نیز وجود داشت. در اینجا خلاصه‌ای از مواردی که توجه ما را به خود جلب کرد، آورده شده است. خبرنگار این مقاله را با جدیدترین اطلاعات در بالای صفحه، تا پایان AWS re:Invent به‌روزرسانی می‌کند. حتماً دوباره سر بزنید.

تلاش بیشتر در زمینه مدل‌های زبانی بزرگ (LLM)

AWS ابزارهای بیشتری را برای مشتریان سازمانی برای ایجاد مدل‌های خودشان معرفی کرد. به طور خاص، AWS گفت که در حال اضافه کردن قابلیت‌های جدیدی برای Amazon Bedrock و Amazon SageMaker AI است تا ساخت مدل‌های زبانی بزرگ سفارشی را آسان‌تر کند.

به عنوان مثال، AWS سفارشی‌سازی مدل بدون سرور را به SageMaker می‌آورد، که به توسعه‌دهندگان اجازه می‌دهد بدون نیاز به فکر کردن در مورد منابع محاسباتی یا زیرساخت، شروع به ساخت یک مدل کنند. سفارشی‌سازی مدل بدون سرور را می‌توان از طریق یک مسیر خودآموز یا با درخواست از یک عامل هوش مصنوعی به دست آورد.

AWS همچنین تنظیم دقیق تقویتی را در Bedrock معرفی کرد که به توسعه‌دهندگان اجازه می‌دهد یک گردش کار یا سیستم پاداش از پیش تعیین شده را انتخاب کنند و Bedrock فرآیند سفارشی‌سازی آن‌ها را به طور خودکار از ابتدا تا انتها اجرا کند.

اندی جسی چند آمار را به اشتراک می‌گذارد

اندی جسی، مدیرعامل آمازون، در پلتفرم رسانه‌های اجتماعی X به توضیح سخنرانی اصلی مت گارمن، رئیس AWS پرداخت. پیام: نسل فعلی تراشه هوش مصنوعی Trainium2 که رقیب Nvidia است، در حال حاضر پول زیادی به دست می‌آورد.

اظهارات او به رونمایی از تراشه نسل بعدی خود، Trainium3، مرتبط بود و هدف آن پیش‌بینی آینده درآمد امیدوارکننده‌ای برای این محصول بود.

صرفه‌جویی در پایگاه داده از راه رسید

در میان ده‌ها اعلامیه، یک مورد وجود دارد که در حال حاضر با تشویق مواجه شده است. تخفیف‌ها.

به طور خاص، AWS اعلام کرد که در حال راه‌اندازی طرح‌های صرفه‌جویی در پایگاه داده است، که به مشتریان کمک می‌کند تا با تعهد به میزان استفاده ثابت (دلار/ساعت) در یک دوره ۱ ساله، هزینه‌های پایگاه داده را تا ۳۵٪ کاهش دهند. این شرکت گفت که این صرفه‌جویی به طور خودکار هر ساعت برای استفاده واجد شرایط در سراسر خدمات پایگاه داده پشتیبانی شده اعمال می‌شود و هرگونه استفاده اضافی فراتر از تعهد، با نرخ درخواستی صورت‌حساب می‌شود.

کوری کوین، اقتصاددان ارشد ابر در Duckbill، آن را به خوبی در پست وبلاگ خود با عنوان “شش سال شکایت بالاخره نتیجه داد” خلاصه کرد.

تراشه آموزش هوش مصنوعی و سازگاری با Nvidia

AWS نسخه جدیدی از تراشه آموزش هوش مصنوعی خود به نام Trainium3 را به همراه یک سیستم هوش مصنوعی به نام UltraServer که آن را اجرا می‌کند، معرفی کرد. خلاصه: این تراشه ارتقا یافته دارای مشخصات چشمگیری است، از جمله وعده تا 4 برابر افزایش عملکرد برای آموزش و استنتاج هوش مصنوعی در حین کاهش مصرف انرژی تا 40٪.

AWS همچنین یک تیزر ارائه داد. این شرکت در حال حاضر Trainium4 را در دست توسعه دارد که قادر به کار با تراشه‌های Nvidia خواهد بود.

قابلیت‌های گسترده‌تر AgentCore

AWS ویژگی‌های جدیدی را در پلتفرم ساخت عامل هوش مصنوعی AgentCore خود معرفی کرد. یکی از ویژگی‌های قابل توجه، Policy in AgentCore است که به توسعه‌دهندگان این امکان را می‌دهد تا راحت‌تر محدودیت‌هایی را برای عوامل هوش مصنوعی تعیین کنند.

AWS همچنین اعلام کرد که عوامل اکنون می‌توانند چیزهایی را درباره کاربران خود ثبت و به خاطر بسپارند. به علاوه اعلام کرد که از طریق ۱۳ سیستم ارزیابی از پیش ساخته شده به مشتریان خود در ارزیابی عوامل کمک خواهد کرد.

زنبور کارگر عامل هوش مصنوعی بی‌وقفه

AWS سه عامل هوش مصنوعی جدید (دوباره همان اصطلاح) به نام “عوامل Frontier” را معرفی کرد، از جمله یکی به نام “عامل خودمختار Kiro” که کد می‌نویسد و برای یادگیری نحوه کار یک تیم طراحی شده است تا بتواند تا حد زیادی به تنهایی برای ساعت‌ها یا روزها فعالیت کند.

یکی دیگر از این عوامل جدید فرآیندهای امنیتی مانند بررسی کد را انجام می‌دهد و سومی وظایف DevOps مانند جلوگیری از حوادث هنگام فشار دادن کد جدید به صورت زنده را انجام می‌دهد. نسخه‌های پیش‌نمایش این عوامل اکنون در دسترس هستند.

مدل‌ها و خدمات جدید نوا

AWS در حال ارائه چهار مدل هوش مصنوعی جدید در خانواده مدل هوش مصنوعی Nova خود است – سه مورد از آن‌ها تولید کننده متن هستند و یکی می‌تواند متن و تصویر ایجاد کند.

این شرکت همچنین سرویس جدیدی به نام Nova Forge را معرفی کرد که به مشتریان ابر AWS امکان می‌دهد به مدل‌های از پیش آموزش دیده، نیمه آموزش دیده یا پس از آموزش دسترسی داشته باشند که سپس می‌توانند با آموزش بر روی داده‌های اختصاصی خود، آن‌ها را تکمیل کنند. هدف بزرگ AWS انعطاف‌پذیری و سفارشی‌سازی است.

استدلال Lyft برای عوامل هوش مصنوعی

این شرکت خدمات درخواست خودرو یکی از بسیاری از مشتریان AWS بود که در طول این رویداد برای به اشتراک گذاشتن داستان‌های موفقیت خود و شواهدی از تأثیر محصولات بر تجارت خود، صحبت کرد. Lyft از مدل Claude Anthropic از طریق Amazon Bedrock برای ایجاد یک عامل هوش مصنوعی استفاده می‌کند که به سوالات و مسائل رانندگان و مسافران رسیدگی می‌کند.

این شرکت گفت که این عامل هوش مصنوعی میانگین زمان حل مسئله را ۸۷٪ کاهش داده است. Lyft همچنین گفت که امسال شاهد افزایش ۷۰ درصدی استفاده رانندگان از عامل هوش مصنوعی بوده‌ است.

کارخانه هوش مصنوعی برای مرکز داده خصوصی

آمازون همچنین “کارخانه‌های هوش مصنوعی” را معرفی کرد که به شرکت‌های بزرگ و دولت‌ها اجازه می‌دهد سیستم‌های هوش مصنوعی AWS را در مراکز داده خود اجرا کنند.

این سیستم با مشارکت Nvidia طراحی شده است و شامل فناوری Nvidia و AWS است. در حالی که شرکت‌هایی که از آن استفاده می‌کنند می‌توانند آن را با پردازنده‌های گرافیکی Nvidia پر کنند، اما می‌توانند تراشه هوش مصنوعی خانگی جدید آمازون، Trainium3 را نیز انتخاب کنند. این سیستم راهی است که آمازون برای رسیدگی به حاکمیت داده‌ها یا نیاز دولت‌ها و بسیاری از شرکت‌ها برای کنترل داده‌های خود و عدم اشتراک‌گذاری آن، حتی برای استفاده از هوش مصنوعی، در نظر گرفته است.

حمایت شده: تماشای پخش‌های صنعت re:Invent

آخرین اطلاعات مربوط به همه چیز از هوش مصنوعی عاملی و زیرساخت ابری گرفته تا امنیت و موارد دیگر را از رویداد شاخص Amazon Web Services در لاس وگاس بررسی کنید. این ویدیو با مشارکت AWS ارائه شده است.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *