کنفرانس سالانه فناوری Amazon Web Services، AWS re:Invent، یک روز دیگر را با انبوهی از اخبار محصولات و سخنرانیهای اصلی به پایان رساند – به علاوه داستانهای موفقیت مشتریان که همیشه وجود دارند.
موضوعی که جای تعجب ندارد، هوش مصنوعی برای شرکتها است. امسال همه چیز درباره ارتقاهایی است که به مشتریان کنترل بیشتری برای سفارشیسازی عوامل هوش مصنوعی میدهد، از جمله عاملی که AWS ادعا میکند میتواند از شما یاد بگیرد و سپس به طور مستقل برای روزها کار کند.
AWS re:Invent سال ۱۴۰۴، که تا ۱۵ آذر ادامه دارد، با سخنرانی مت گارمن، مدیرعامل AWS، آغاز شد، که به این ایده پرداخت که عوامل هوش مصنوعی میتوانند “ارزش واقعی” هوش مصنوعی را آزاد کنند.
او در سخنرانی اصلی خود در ۱۲ آذر گفت: “دستیاران هوش مصنوعی در حال جایگزین شدن با عوامل هوش مصنوعی هستند که میتوانند وظایف را انجام دهند و به نمایندگی از شما خودکارسازی کنند. اینجاست که ما شروع به دیدن بازده مادی کسب و کار از سرمایهگذاریهای هوش مصنوعی شما میکنیم.”
در ۱۳ آذر، کنفرانس با پیامرسانی عوامل هوش مصنوعی و همچنین بررسی عمیقتر داستانهای مشتریان ادامه یافت. سوامی سیواسوبرامانیان، معاون هوش مصنوعی عاملی در AWS، یکی از سخنرانیهای اصلی را ارائه کرد. اگر بگوییم او خوشبین بود، شاید دست کم گرفته باشیم.
سیواسوبرامانیان در این سخنرانی گفت: “ما در زمانه تغییرات بزرگی زندگی میکنیم. برای اولین بار در تاریخ، میتوانیم آنچه را که میخواهیم به زبان طبیعی انجام دهیم، توصیف کنیم و عوامل، برنامه را تولید میکنند. آنها کد را مینویسند، ابزارهای لازم را فراخوانی میکنند و راه حل کامل را اجرا میکنند. عوامل به شما این آزادی را میدهند که بدون محدودیت بسازید و سرعت حرکت از ایده به تأثیر را به طور چشمگیری افزایش دهید.”
در حالی که اخبار مربوط به عوامل هوش مصنوعی وعده میدهد که حضور مستمری در سراسر AWS re:Invent ۱۴۰۴ داشته باشد، اعلامیههای دیگری نیز وجود داشت. در اینجا خلاصهای از مواردی که توجه ما را به خود جلب کرد، آورده شده است. خبرنگار این مقاله را با جدیدترین اطلاعات در بالای صفحه، تا پایان AWS re:Invent بهروزرسانی میکند. حتماً دوباره سر بزنید.
تلاش بیشتر در زمینه مدلهای زبانی بزرگ (LLM)
AWS ابزارهای بیشتری را برای مشتریان سازمانی برای ایجاد مدلهای خودشان معرفی کرد. به طور خاص، AWS گفت که در حال اضافه کردن قابلیتهای جدیدی برای Amazon Bedrock و Amazon SageMaker AI است تا ساخت مدلهای زبانی بزرگ سفارشی را آسانتر کند.
به عنوان مثال، AWS سفارشیسازی مدل بدون سرور را به SageMaker میآورد، که به توسعهدهندگان اجازه میدهد بدون نیاز به فکر کردن در مورد منابع محاسباتی یا زیرساخت، شروع به ساخت یک مدل کنند. سفارشیسازی مدل بدون سرور را میتوان از طریق یک مسیر خودآموز یا با درخواست از یک عامل هوش مصنوعی به دست آورد.
AWS همچنین تنظیم دقیق تقویتی را در Bedrock معرفی کرد که به توسعهدهندگان اجازه میدهد یک گردش کار یا سیستم پاداش از پیش تعیین شده را انتخاب کنند و Bedrock فرآیند سفارشیسازی آنها را به طور خودکار از ابتدا تا انتها اجرا کند.
اندی جسی چند آمار را به اشتراک میگذارد
اندی جسی، مدیرعامل آمازون، در پلتفرم رسانههای اجتماعی X به توضیح سخنرانی اصلی مت گارمن، رئیس AWS پرداخت. پیام: نسل فعلی تراشه هوش مصنوعی Trainium2 که رقیب Nvidia است، در حال حاضر پول زیادی به دست میآورد.
اظهارات او به رونمایی از تراشه نسل بعدی خود، Trainium3، مرتبط بود و هدف آن پیشبینی آینده درآمد امیدوارکنندهای برای این محصول بود.
صرفهجویی در پایگاه داده از راه رسید
در میان دهها اعلامیه، یک مورد وجود دارد که در حال حاضر با تشویق مواجه شده است. تخفیفها.
به طور خاص، AWS اعلام کرد که در حال راهاندازی طرحهای صرفهجویی در پایگاه داده است، که به مشتریان کمک میکند تا با تعهد به میزان استفاده ثابت (دلار/ساعت) در یک دوره ۱ ساله، هزینههای پایگاه داده را تا ۳۵٪ کاهش دهند. این شرکت گفت که این صرفهجویی به طور خودکار هر ساعت برای استفاده واجد شرایط در سراسر خدمات پایگاه داده پشتیبانی شده اعمال میشود و هرگونه استفاده اضافی فراتر از تعهد، با نرخ درخواستی صورتحساب میشود.
کوری کوین، اقتصاددان ارشد ابر در Duckbill، آن را به خوبی در پست وبلاگ خود با عنوان “شش سال شکایت بالاخره نتیجه داد” خلاصه کرد.
تراشه آموزش هوش مصنوعی و سازگاری با Nvidia
AWS نسخه جدیدی از تراشه آموزش هوش مصنوعی خود به نام Trainium3 را به همراه یک سیستم هوش مصنوعی به نام UltraServer که آن را اجرا میکند، معرفی کرد. خلاصه: این تراشه ارتقا یافته دارای مشخصات چشمگیری است، از جمله وعده تا 4 برابر افزایش عملکرد برای آموزش و استنتاج هوش مصنوعی در حین کاهش مصرف انرژی تا 40٪.
AWS همچنین یک تیزر ارائه داد. این شرکت در حال حاضر Trainium4 را در دست توسعه دارد که قادر به کار با تراشههای Nvidia خواهد بود.
قابلیتهای گستردهتر AgentCore
AWS ویژگیهای جدیدی را در پلتفرم ساخت عامل هوش مصنوعی AgentCore خود معرفی کرد. یکی از ویژگیهای قابل توجه، Policy in AgentCore است که به توسعهدهندگان این امکان را میدهد تا راحتتر محدودیتهایی را برای عوامل هوش مصنوعی تعیین کنند.
AWS همچنین اعلام کرد که عوامل اکنون میتوانند چیزهایی را درباره کاربران خود ثبت و به خاطر بسپارند. به علاوه اعلام کرد که از طریق ۱۳ سیستم ارزیابی از پیش ساخته شده به مشتریان خود در ارزیابی عوامل کمک خواهد کرد.
زنبور کارگر عامل هوش مصنوعی بیوقفه
AWS سه عامل هوش مصنوعی جدید (دوباره همان اصطلاح) به نام “عوامل Frontier” را معرفی کرد، از جمله یکی به نام “عامل خودمختار Kiro” که کد مینویسد و برای یادگیری نحوه کار یک تیم طراحی شده است تا بتواند تا حد زیادی به تنهایی برای ساعتها یا روزها فعالیت کند.
یکی دیگر از این عوامل جدید فرآیندهای امنیتی مانند بررسی کد را انجام میدهد و سومی وظایف DevOps مانند جلوگیری از حوادث هنگام فشار دادن کد جدید به صورت زنده را انجام میدهد. نسخههای پیشنمایش این عوامل اکنون در دسترس هستند.
مدلها و خدمات جدید نوا
AWS در حال ارائه چهار مدل هوش مصنوعی جدید در خانواده مدل هوش مصنوعی Nova خود است – سه مورد از آنها تولید کننده متن هستند و یکی میتواند متن و تصویر ایجاد کند.
این شرکت همچنین سرویس جدیدی به نام Nova Forge را معرفی کرد که به مشتریان ابر AWS امکان میدهد به مدلهای از پیش آموزش دیده، نیمه آموزش دیده یا پس از آموزش دسترسی داشته باشند که سپس میتوانند با آموزش بر روی دادههای اختصاصی خود، آنها را تکمیل کنند. هدف بزرگ AWS انعطافپذیری و سفارشیسازی است.
استدلال Lyft برای عوامل هوش مصنوعی
این شرکت خدمات درخواست خودرو یکی از بسیاری از مشتریان AWS بود که در طول این رویداد برای به اشتراک گذاشتن داستانهای موفقیت خود و شواهدی از تأثیر محصولات بر تجارت خود، صحبت کرد. Lyft از مدل Claude Anthropic از طریق Amazon Bedrock برای ایجاد یک عامل هوش مصنوعی استفاده میکند که به سوالات و مسائل رانندگان و مسافران رسیدگی میکند.
این شرکت گفت که این عامل هوش مصنوعی میانگین زمان حل مسئله را ۸۷٪ کاهش داده است. Lyft همچنین گفت که امسال شاهد افزایش ۷۰ درصدی استفاده رانندگان از عامل هوش مصنوعی بوده است.
کارخانه هوش مصنوعی برای مرکز داده خصوصی
آمازون همچنین “کارخانههای هوش مصنوعی” را معرفی کرد که به شرکتهای بزرگ و دولتها اجازه میدهد سیستمهای هوش مصنوعی AWS را در مراکز داده خود اجرا کنند.
این سیستم با مشارکت Nvidia طراحی شده است و شامل فناوری Nvidia و AWS است. در حالی که شرکتهایی که از آن استفاده میکنند میتوانند آن را با پردازندههای گرافیکی Nvidia پر کنند، اما میتوانند تراشه هوش مصنوعی خانگی جدید آمازون، Trainium3 را نیز انتخاب کنند. این سیستم راهی است که آمازون برای رسیدگی به حاکمیت دادهها یا نیاز دولتها و بسیاری از شرکتها برای کنترل دادههای خود و عدم اشتراکگذاری آن، حتی برای استفاده از هوش مصنوعی، در نظر گرفته است.
حمایت شده: تماشای پخشهای صنعت re:Invent
آخرین اطلاعات مربوط به همه چیز از هوش مصنوعی عاملی و زیرساخت ابری گرفته تا امنیت و موارد دیگر را از رویداد شاخص Amazon Web Services در لاس وگاس بررسی کنید. این ویدیو با مشارکت AWS ارائه شده است.








