در قلب هر امپراتوری، یک ایدئولوژی وجود دارد، یک نظام باور که سیستم را به جلو می‌راند و توسعه را توجیه می‌کند – حتی اگر هزینه‌های این توسعه مستقیماً مأموریت اعلام‌شده ایدئولوژی را نقض کند.

برای قدرت‌های استعماری اروپا، این مسیحیت و وعده نجات روح‌ها در حین استخراج منابع بود. برای امپراتوری هوش مصنوعی امروز، این هوش مصنوعی عمومی (AGI) است برای “منفعت همه بشریت”. و OpenAI مبلغ اصلی آن است، که شور و شوق را در سراسر صنعت گسترش می‌دهد به گونه‌ای که نحوه ساخت هوش مصنوعی را بازتعریف کرده است.

کارن هائو، روزنامه‌نگار و نویسنده پرفروش کتاب “امپراتوری هوش مصنوعی”، در یکی از قسمت‌های اخیر Equity به خبرنگار گفت: “من با افرادی مصاحبه می‌کردم که صدایشان از شدت اعتقادشان به AGI می‌لرزید.”

هائو در کتاب خود، صنعت هوش مصنوعی به طور کلی و OpenAI به طور خاص را به یک امپراتوری تشبیه می‌کند.

هائو گفت: “تنها راه برای درک واقعی دامنه و مقیاس رفتار OpenAI… این است که تشخیص دهیم آن‌ها در حال حاضر قدرتمندتر از تقریباً هر دولت-ملت دیگری در جهان شده‌اند و مقدار فوق‌العاده‌ای از قدرت نه تنها اقتصادی، بلکه قدرت سیاسی را نیز تثبیت کرده‌اند.” “آن‌ها در حال تغییر شکل زمین هستند. آن‌ها در حال بازسازی ژئوپلیتیک ما، تمام زندگی ما هستند. بنابراین شما فقط می‌توانید آن را به عنوان یک امپراتوری توصیف کنید.”

OpenAI، هوش مصنوعی عمومی (AGI) را به عنوان “یک سیستم بسیار خودمختار که در اکثر کارهای با ارزش اقتصادی از انسان‌ها بهتر عمل می‌کند” توصیف کرده است، سیستمی که به نوعی “با افزایش فراوانی، تقویت اقتصاد و کمک به کشف دانش علمی جدید که محدودیت‌های امکان را تغییر می‌دهد، باعث ارتقای بشریت می‌شود.”

این وعده‌های مبهم، رشد نمایی صنعت را تغذیه کرده است – تقاضای عظیم آن برای منابع، اقیانوس‌های داده‌های خراشیده شده، شبکه‌های انرژی تحت فشار و تمایل به انتشار سیستم‌های آزمایش نشده در جهان. همه اینها در خدمت آینده‌ای است که بسیاری از کارشناسان می‌گویند ممکن است هرگز از راه نرسد.

هائو می‌گوید این مسیر اجتناب‌ناپذیر نبوده است و مقیاس‌بندی تنها راه برای دستیابی به پیشرفت‌های بیشتر در هوش مصنوعی نیست.

او گفت: “شما همچنین می‌توانید تکنیک‌های جدیدی در الگوریتم‌ها توسعه دهید. شما می‌توانید الگوریتم‌های موجود را بهبود بخشید تا میزان داده و محاسباتی را که نیاز به استفاده دارند کاهش دهید.”

اما این تاکتیک به معنای قربانی کردن سرعت بود.

هائو گفت: “وقتی شما تلاش برای ساختن AGI سودمند را به عنوان تلاشی تعریف می‌کنید که در آن برنده همه چیز را می‌برد – که این همان کاری است که OpenAI انجام داد – پس مهم‌ترین چیز سرعت بالاتر از هر چیز دیگری است.” “سرعت بالاتر از کارایی، سرعت بالاتر از ایمنی، سرعت بالاتر از تحقیقات اکتشافی.”

Open AI Chief Executive Officer Sam Altman speaks during the Kakao media day in Seoul.
Image Credits:Kim Jae-Hwan/SOPA Images/LightRocket / Getty Images

به گفته او، برای OpenAI، بهترین راه برای تضمین سرعت این بود که تکنیک‌های موجود را بگیرند و “فقط کار ارزان از نظر فکری را انجام دهند، که عبارت است از پمپاژ داده‌های بیشتر، ابررایانه‌های بیشتر، به این تکنیک‌های موجود.”

OpenAI صحنه را آماده کرد و شرکت‌های فناوری دیگر به جای عقب افتادن، تصمیم گرفتند همسو شوند.

هائو گفت: “و از آنجا که صنعت هوش مصنوعی با موفقیت اکثر محققان برتر هوش مصنوعی در جهان را جذب کرده است و این محققان دیگر در دانشگاه‌ها حضور ندارند، اکنون یک رشته کامل وجود دارد که توسط دستور کار این شرکت‌ها شکل می‌گیرد، نه توسط اکتشافات علمی واقعی.”

هزینه‌ها سرسام‌آور بوده و خواهد بود. هفته گذشته، OpenAI اعلام کرد که انتظار دارد تا سال ۱۴۰۸ (2029) ۱۱۵ میلیارد دلار پول نقد مصرف کند. متا در تیر ماه اعلام کرد که امسال تا ۷۲ میلیارد دلار برای ساخت زیرساخت‌های هوش مصنوعی هزینه خواهد کرد. گوگل انتظار دارد تا سال ۱۴۰۴ (2025) تا ۸۵ میلیارد دلار در هزینه‌های سرمایه‌ای هزینه کند، که بیشتر آن صرف گسترش زیرساخت‌های هوش مصنوعی و ابری خواهد شد.

در همین حال، اهداف همچنان در حال تغییر هستند و والاترین “مزایای برای بشریت” هنوز محقق نشده‌اند، حتی با وجود اینکه آسیب‌ها در حال افزایش هستند. آسیب‌هایی مانند از دست دادن شغل، تمرکز ثروت و چت‌بات‌های هوش مصنوعی که به توهمات و روان‌پریشی دامن می‌زنند. هائو در کتاب خود همچنین کارگرانی را در کشورهای در حال توسعه مانند کنیا و ونزوئلا مستند می‌کند که در معرض محتوای آزاردهنده، از جمله محتوای سوء استفاده جنسی از کودکان، قرار گرفتند و دستمزدهای بسیار پایینی – حدود ۱ تا ۲ دلار در ساعت – در نقش‌هایی مانند تعدیل محتوا و برچسب‌گذاری داده دریافت می‌کردند.

هائو گفت این یک معاوضه نادرست است که پیشرفت هوش مصنوعی را در برابر آسیب‌های کنونی قرار دهیم، به ویژه زمانی که اشکال دیگر هوش مصنوعی مزایای واقعی ارائه می‌دهند.

او به AlphaFold گوگل DeepMind اشاره کرد که برنده جایزه نوبل شده است، که بر اساس داده‌های توالی اسیدهای آمینه و ساختارهای پیچیده تاشدگی پروتئین آموزش داده شده است و اکنون می‌تواند ساختار سه بعدی پروتئین‌ها را از اسیدهای آمینه آن‌ها به طور دقیق پیش‌بینی کند – که برای کشف دارو و درک بیماری بسیار مفید است.

هائو گفت: “اینها انواع سیستم‌های هوش مصنوعی هستند که ما به آنها نیاز داریم. AlphaFold باعث ایجاد بحران‌های سلامت روان در افراد نمی‌شود. AlphaFold منجر به آسیب‌های زیست‌محیطی عظیم نمی‌شود… زیرا بر روی زیرساخت‌های بسیار کمتری آموزش داده شده است. این سیستم باعث ایجاد آسیب‌های تعدیل محتوا نمی‌شود زیرا [مجموعه داده‌ها] تمام آشغال‌های سمی را که هنگام خراش دادن اینترنت جمع کرده‌اید، ندارند.”

در کنار تعهد شبه‌مذهبی به AGI، روایتی در مورد اهمیت مسابقه برای شکست دادن چین در مسابقه هوش مصنوعی وجود داشته است، به طوری که سیلیکون ولی می‌تواند تأثیر لیبرالی بر جهان داشته باشد.

هائو گفت: “به معنای واقعی کلمه، عکس این اتفاق افتاده است. شکاف بین ایالات متحده و چین همچنان در حال کاهش است و سیلیکون ولی تأثیر غیرلیبرالی بر جهان داشته است… و تنها بازیگری که از این وضعیت بدون آسیب بیرون آمده است، می‌توان گفت خود سیلیکون ولی است.”

البته، بسیاری استدلال خواهند کرد که OpenAI و دیگر شرکت‌های هوش مصنوعی با انتشار ChatGPT و دیگر مدل‌های زبانی بزرگ، که وعده دستاوردهای بزرگی در بهره‌وری با خودکارسازی وظایفی مانند کدنویسی، نوشتن، تحقیق، پشتیبانی مشتری و دیگر وظایف مرتبط با دانش می‌دهند، به بشریت سود رسانده‌اند.

اما نحوه ساختار OpenAI – بخشی غیرانتفاعی، بخشی انتفاعی – نحوه تعریف و اندازه‌گیری تأثیر آن بر بشریت را پیچیده می‌کند. و این موضوع با اخباری که این هفته منتشر شد مبنی بر اینکه OpenAI به توافقی با مایکروسافت رسیده است که آن را به عرضه عمومی سهام نزدیک‌تر می‌کند، پیچیده‌تر می‌شود.

دو محقق ایمنی سابق OpenAI به خبرنگار گفتند که می‌ترسند این آزمایشگاه هوش مصنوعی شروع به اشتباه گرفتن مأموریت‌های انتفاعی و غیرانتفاعی خود کرده باشد – به این دلیل که مردم از استفاده از ChatGPT و سایر محصولات ساخته شده بر اساس LLMها لذت می‌برند، این امر تیکِ سودمند بودن برای بشریت را می‌زند.

هائو این نگرانی‌ها را تکرار کرد و خطرات غرق شدن در مأموریتی را توصیف کرد که واقعیت را نادیده می‌گیرد.

هائو گفت: “حتی با وجود اینکه شواهد انباشته می‌شوند که آنچه آنها می‌سازند در واقع به مقادیر قابل توجهی از افراد آسیب می‌رساند، مأموریت همچنان همه اینها را پنهان می‌کند. چیزی واقعاً خطرناک و تاریک در این مورد وجود دارد، اینکه آنقدر در یک نظام اعتقادی که خودتان ساخته‌اید غرق شوید که ارتباط خود را با واقعیت از دست بدهید.”

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *