آیا واقعاً شرکتی، بزرگ یا کوچک، می‌تواند سلطه تراشه‌های هوش مصنوعی انویدیا را از بین ببرد؟ شاید نه. اما اندی جسی، مدیرعامل آمازون، این هفته گفت که صدها میلیارد دلار درآمد برای کسانی وجود دارد که حتی بتوانند بخشی از آن را برای خود جدا کنند.

همانطور که انتظار می‌رفت، این شرکت در جریان کنفرانس AWS Re:Invent از نسل بعدی تراشه هوش مصنوعی رقیب انویدیا خود، Trainium3، رونمایی کرد که چهار برابر سریعتر است و در عین حال انرژی کمتری نسبت به Trainium2 فعلی مصرف می‌کند. جسی در پستی در X چند نکته جالب در مورد Trainium فعلی فاش کرد که نشان می‌دهد چرا این شرکت تا این حد به این تراشه خوشبین است.

او گفت که تجارت Trainium2 “کشش قابل توجهی دارد، یک تجارت چند میلیارد دلاری است، بیش از 1 میلیون تراشه در حال تولید دارد و بیش از 100 هزار شرکت از آن به عنوان بخش عمده استفاده Bedrock امروزی استفاده می‌کنند.”

Bedrock ابزار توسعه برنامه هوش مصنوعی آمازون است که به شرکت‌ها اجازه می‌دهد از بین مدل‌های هوش مصنوعی متعدد، انتخاب کنند.

جسی گفت که تراشه هوش مصنوعی آمازون در میان فهرست عظیمی از مشتریان ابری این شرکت برنده شده است، زیرا “نسبت به سایر گزینه‌های GPU مزایای قیمت و عملکردی دارد که قانع کننده است.” به عبارت دیگر، او معتقد است که بهتر کار می‌کند و هزینه آن کمتر از “سایر GPUها” در بازار است.

البته این رویه همیشگی آمازون است که فناوری بومی خود را با قیمت‌های پایین‌تر ارائه می‌دهد.

علاوه بر این، مت گارمن، مدیرعامل AWS، در مصاحبه‌ای با CRN، بینش بیشتری در مورد یک مشتری ارائه داد که مسئول بخش بزرگی از آن میلیاردها دلار درآمد است: جای تعجب نیست، آنتروپیک است.

گارمن گفت: “ما شاهد کشش بسیار زیادی از Trainium2 بوده‌ایم، به ویژه از شرکای خود در Anthropic که پروژه Rainier را اعلام کرده‌ایم، جایی که بیش از 500000 تراشه Trainium2 به آنها کمک می‌کند تا نسل‌های بعدی مدل‌ها را برای Claude بسازند.”

پروژه Rainier جاه‌طلبانه‌ترین خوشه سرورهای هوش مصنوعی آمازون است که در چندین مرکز داده در ایالات متحده پخش شده و برای پاسخگویی به نیازهای سرسام‌آور Anthropic ساخته شده است. این پروژه در مهر ماه به بهره‌برداری رسید. البته آمازون سرمایه‌گذار اصلی Anthropic است. در مقابل، Anthropic AWS را به شریک اصلی آموزش مدل خود تبدیل کرد، حتی با وجود اینکه Anthropic اکنون از طریق تراشه‌های انویدیا در فضای ابری مایکروسافت نیز ارائه می‌شود.

OpenAI نیز اکنون علاوه بر فضای ابری مایکروسافت، از AWS نیز استفاده می‌کند. اما مشارکت OpenAI نمی‌توانست کمک زیادی به درآمد Trainium کرده باشد، زیرا این غول ابری گفت که AWS آن را روی تراشه‌ها و سیستم‌های انویدیا اجرا می‌کند.

در واقع، تنها چند شرکت آمریکایی مانند گوگل، مایکروسافت، آمازون و متا تمام قطعات مهندسی لازم – تخصص در طراحی تراشه‌های سیلیکونی، فناوری اتصال و شبکه‌سازی پرسرعت بومی – را برای تلاش برای رقابت واقعی با انویدیا دارند. (به یاد داشته باشید، انویدیا در سال 1398 بازار یکی از فناوری‌های اصلی شبکه‌سازی با کارایی بالا را به دست آورد، زمانی که مدیرعامل آن، جنسن هوانگ، از اینتل و مایکروسافت پیشی گرفت تا سازنده سخت‌افزار Infiniband، Mellanox را بخرد.)

علاوه بر این، مدل‌ها و نرم‌افزارهای هوش مصنوعی که برای ارائه توسط تراشه‌های انویدیا ساخته شده‌اند، به نرم‌افزار اختصاصی Compute Unified Device Architecture (CUDA) انویدیا نیز متکی هستند. CUDA به برنامه‌ها اجازه می‌دهد تا از GPUها برای محاسبات پردازش موازی در میان سایر وظایف استفاده کنند. درست مانند جنگ تراشه‌های اینتل در مقابل SPARC در گذشته، بازنویسی یک برنامه هوش مصنوعی برای یک تراشه غیر CUDA کار کوچکی نیست.

با این حال، آمازون ممکن است برای آن برنامه‌ای داشته باشد. همانطور که قبلاً گزارش دادیم، نسل بعدی تراشه هوش مصنوعی آن، Trainium4، برای تعامل با GPUهای انویدیا در همان سیستم ساخته خواهد شد. اینکه آیا این به جدا کردن تجارت بیشتر از انویدیا کمک می‌کند یا به سادگی تسلط آن را، اما در فضای ابری AWS، تقویت می‌کند، هنوز مشخص نیست.

ممکن است برای آمازون مهم نباشد. اگر در حال حاضر در مسیر کسب چند میلیارد دلار از تراشه Trainium2 باشد و نسل بعدی بسیار بهتر باشد، ممکن است به اندازه کافی برنده باشد.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *