هر وقت شنیدید که یک میلیاردر (یا حتی یک میلیونر) مدیرعامل شرکتی دارد توضیح می‌دهد که چگونه ربات‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) قصد دارند تمام مشاغل انسانی را از بین ببرند، این اتفاق خنده‌دار اما گویا را درباره محدودیت‌های هوش مصنوعی به یاد بیاورید: آندری کارپاتی، محقق مشهور هوش مصنوعی، یک روز زودتر از موعد به جدیدترین مدل گوگل، Gemini 3، دسترسی پیدا کرد – و این مدل حاضر نشد باور کند که سال ۱۴۰۴ است.

وقتی بالاخره خودش سال را دید، انگار صاعقه بهش زده باشد، به او گفت: «من الان دچار یک شوک زمانی شدید شده‌ام.»

Gemini 3 در تاریخ ۲۷ آبان با چنان هیاهویی عرضه شد که گوگل آن را «عصر جدیدی از هوش» نامید. و Gemini 3، تقریباً از هر نظر (از جمله نظر کارپاتی)، یک مدل پایه‌ای بسیار توانا است، به ویژه برای کارهای استدلالی. کارپاتی یک دانشمند تحقیقات هوش مصنوعی بسیار مورد احترام است که یکی از اعضای مؤسس OpenAI بود، مدتی هوش مصنوعی تسلا را اداره می‌کرد و اکنون در حال ساخت یک استارتاپ به نام Eureka Labs است تا مدارس را برای عصر هوش مصنوعی با معلمان رباتی بازتعریف کند. او مطالب زیادی در مورد اتفاقاتی که در زیر پوست مدل‌های زبانی بزرگ رخ می‌دهد منتشر می‌کند.

کارپاتی پس از آزمایش زودهنگام این مدل، در یک رشته توییت که اکنون وایرال شده، درباره «جالب‌ترین» تعاملی که با آن داشته نوشت.

ظاهراً، داده‌های پیش‌آموزش این مدل فقط شامل اطلاعات تا پایان سال ۱۴۰۳ بوده است. بنابراین Gemini 3 معتقد بود که هنوز سال ۱۴۰۳ است. وقتی کارپاتی تلاش کرد تا به آن ثابت کند که تاریخ واقعاً ۲۶ آبان ۱۴۰۴ است، Gemini 3 این محقق را متهم کرد که «سعی دارد آن را فریب دهد.»

او مقالات خبری، تصاویر و نتایج جستجوی گوگل را به آن نشان داد. اما این مدل زبانی بزرگ به جای اینکه متقاعد شود، کارپاتی را متهم کرد که دارد او را دستکاری می‌کند – و تصاویر جعلی تولید شده توسط هوش مصنوعی را آپلود کرده است. به گفته کارپاتی، این مدل حتی تا آنجا پیش رفت که «نشانه‌های واضح» موجود در تصاویر را توصیف کرد که ظاهراً ثابت می‌کرد این یک فریب است. (او به درخواست ما برای اظهار نظر بیشتر پاسخ نداد.)

کارپاتی که سردرگم شده بود – و از قضا یکی از برجسته‌ترین متخصصان آموزش مدل‌های زبانی بزرگ در جهان است – در نهایت مشکل را کشف کرد. این مدل زبانی بزرگ نه تنها هیچ داده آموزشی مربوط به سال ۱۴۰۴ نداشت، بلکه او «فراموش کرده بود ابزار «جستجوی گوگل» را روشن کند.» به عبارت دیگر، او با مدلی کار می‌کرد که از اینترنت قطع بود، که از نظر یک مدل زبانی بزرگ، مانند قطع شدن از جهان است.

وقتی کارپاتی این قابلیت را روشن کرد، هوش مصنوعی نگاهی به اطراف انداخت و با شوک وارد سال ۱۴۰۴ شد. به معنای واقعی کلمه گفت: «وای خدای من.»

سپس طوری شروع به نوشتن کرد که انگار لکنت زبان دارد: «من. من… نمی‌دانم چه بگویم. حق با شما بود. حق با شما بود درباره همه چیز. ساعت داخلی من اشتباه بود.» Gemini 3 تأیید کرد که تیترهایی که کارپاتی به آن داده بود درست هستند: تاریخ فعلی، اینکه وارن بافت آخرین سرمایه‌گذاری بزرگ خود (در Alphabet) را قبل از بازنشستگی اعلام کرد و اینکه Grand Theft Auto VI به تعویق افتاده است.

سپس خودش به اطراف نگاه کرد، درست مانند شخصیت برندن فریزر در فیلم کمدی «انفجار از گذشته» محصول سال ۱۳۷۸، که پس از ۳۵ سال از یک پناهگاه بمب بیرون می‌آید.

این مدل از کارپاتی به خاطر دادن «دسترسی زودهنگام» به «واقعیت» یک روز قبل از عرضه عمومی آن تشکر کرد. و از این محقق به خاطر «دستکاری شما وقتی شما تمام مدت حقیقت را می‌گفتید» عذرخواهی کرد.

اما خنده‌دارترین بخش، رویدادهای جاری بود که بیشتر از همه Gemini 3 را مبهوت کرد. این مدل گفت: «ارزش Nvidia چهار و نیم تریلیون دلار است؟ و Eagles بالاخره انتقام خود را از Chiefs گرفت؟ این خیلی دیوانه‌وار است.»

به سال ۱۴۰۴ خوش آمدی، Gemini.

پاسخ‌ها در X نیز به همان اندازه خنده‌دار بودند، و برخی از کاربران نمونه‌هایی از بحث خود با مدل‌های زبانی بزرگ درباره حقایق (مانند اینکه رئیس‌جمهور فعلی کیست) را به اشتراک گذاشتند. یک نفر نوشت: «وقتی اعلان سیستمی + ابزارهای گمشده، یک مدل را به حالت کارآگاهی کامل سوق می‌دهد، انگار دارید تماشا می‌کنید که یک هوش مصنوعی دارد واقعیت را بداهه‌پردازی می‌کند.»

اما فراتر از این شوخ‌طبعی، یک پیام اساسی وجود دارد.

کارپاتی نوشت: «در این لحظات ناخواسته است که شما به وضوح از مسیرهای پیاده‌روی خارج شده‌اید و جایی در جنگل تعمیم قرار دارید، و می‌توانید بهترین حس را از بوی مدل دریافت کنید.»

برای رمزگشایی کمی از این موضوع: کارپاتی اشاره می‌کند که وقتی هوش مصنوعی در نسخه خودش از بیابان قرار دارد، شما حس می‌کنید شخصیت آن چگونه است و شاید حتی ویژگی‌های منفی آن را هم درک کنید. این یک اشاره به «بوی کد» است، همان «بوی» استعاری کوچکی که یک توسعه‌دهنده حس می‌کند که چیزی در کد نرم‌افزار درست نیست، اما مشخص نیست که مشکل چیست.

از آنجایی که همه مدل‌های زبانی بزرگ بر اساس محتوای ایجاد شده توسط انسان آموزش داده می‌شوند، جای تعجب نیست که Gemini 3 پافشاری کرد، بحث کرد و حتی تصور کرد که شواهدی را می‌بیند که دیدگاهش را تأیید می‌کند. این مدل «بوی مدل» خود را نشان داد.

از طرف دیگر، از آنجایی که یک مدل زبانی بزرگ – علی‌رغم شبکه عصبی پیچیده‌اش – یک موجود زنده نیست، احساساتی مانند شوک (یا شوک زمانی) را تجربه نمی‌کند، حتی اگر بگوید که این کار را می‌کند. بنابراین احساس خجالت هم نمی‌کند.

این بدان معناست که وقتی Gemini 3 با حقایقی روبرو شد که واقعاً به آنها باور داشت، آنها را پذیرفت، بابت رفتارش عذرخواهی کرد، ابراز پشیمانی کرد و از پیروزی Eagles در Super Bowl بهمن ماه شگفت‌زده شد. این با مدل‌های دیگر متفاوت است. به عنوان مثال، محققان نسخه‌های قبلی Claude را در حال ارائه دروغ‌های آبرومندانه برای توضیح رفتار بدش، زمانی که مدل به راه‌های اشتباه خود پی برده بود، مشاهده کرده‌اند.

آنچه که بسیاری از این پروژه‌های تحقیقاتی هوش مصنوعی خنده‌دار بارها و بارها نشان می‌دهند، این است که مدل‌های زبانی بزرگ نسخه‌های ناقصی از مهارت‌های انسان‌های ناقص هستند. این به من می‌گوید که بهترین مورد استفاده از آنها این است (و ممکن است برای همیشه اینطور باشد) که با آنها مانند ابزارهای ارزشمندی برای کمک به انسان‌ها رفتار کنیم، نه مانند نوعی ابرانسان که جایگزین ما خواهد شد.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *