مدل‌های هوش مصنوعی می‌توانند به متن، صدا و تصویر طوری پاسخ دهند که گاهی مردم را فریب دهند و فکر کنند یک انسان پشت صحنه است، اما این دقیقا به این معنی نیست که آن‌ها آگاه هستند. این‌طور نیست که ChatGPT موقع انجام دادن اظهارنامه مالیاتی من غمگین بشود… درسته؟

خب، تعداد رو به رشدی از محققان هوش مصنوعی در آزمایشگاه‌هایی مانند Anthropic می‌پرسند که آیا مدل‌های هوش مصنوعی ممکن است تجربیات ذهنی شبیه به موجودات زنده پیدا کنند و اگر این اتفاق بیفتد، چه حقوقی باید داشته باشند؟

بحث بر سر اینکه آیا مدل‌های هوش مصنوعی می‌توانند روزی آگاه شوند – و مستحق حقوق باشند – رهبران فناوری در سیلیکون ولی را دچار اختلاف کرده است. در سیلیکون ولی، این حوزه نوپا به عنوان “رفاه هوش مصنوعی” شناخته می‌شود و اگر فکر می‌کنید کمی عجیب و غریب است، تنها نیستید.

مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، روز سه‌شنبه در یک پست وبلاگی استدلال کرد که مطالعه رفاه هوش مصنوعی “هم نارس و هم، رک بگویم، خطرناک است.”

سلیمان می‌گوید که با اعتبار بخشیدن به این ایده که مدل‌های هوش مصنوعی می‌توانند روزی آگاه شوند، این محققان مشکلات انسانی را که تازه شروع به دیدن آن‌ها در مورد ایجاد روان‌پریشی و وابستگی‌های ناسالم به ربات‌های گفتگوگر هوش مصنوعی کرده‌ایم، تشدید می‌کنند.

علاوه بر این، رئیس بخش هوش مصنوعی مایکروسافت استدلال می‌کند که گفت‌وگو درباره رفاه هوش مصنوعی، محور جدیدی از اختلاف را در جامعه بر سر حقوق هوش مصنوعی در “دنیایی که از قبل با استدلال‌های قطبی شده بر سر هویت و حقوق به تلاطم درآمده” ایجاد می‌کند.

دیدگاه‌های سلیمان ممکن است منطقی به نظر برسد، اما او با بسیاری از افراد در این صنعت در تضاد است. در سوی دیگر این طیف، Anthropic قرار دارد که در حال استخدام محققان برای مطالعه رفاه هوش مصنوعی بوده و اخیراً یک برنامه تحقیقاتی اختصاصی را در مورد این مفهوم راه‌اندازی کرده است. هفته گذشته، برنامه رفاه هوش مصنوعی Anthropic یک ویژگی جدید را به برخی از مدل‌های این شرکت اضافه کرد: اکنون Claude می‌تواند مکالمات با انسان‌هایی را که “به طور مداوم مضر یا توهین‌آمیز” هستند، پایان دهد.

فراتر از Anthropic، محققان OpenAI به طور مستقل از ایده مطالعه رفاه هوش مصنوعی استقبال کرده‌اند. Google DeepMind اخیراً یک آگهی استخدام برای یک محقق منتشر کرده است تا، از جمله موارد دیگر، “سوالات اجتماعی پیشرفته در مورد شناخت ماشین، آگاهی و سیستم‌های چندعاملی” را بررسی کند.

حتی اگر رفاه هوش مصنوعی سیاست رسمی این شرکت‌ها نباشد، رهبران آن‌ها مانند سلیمان علناً مفروضات آن را محکوم نمی‌کنند.

Anthropic، OpenAI و Google DeepMind بلافاصله به درخواست خبرنگار برای اظهار نظر پاسخ ندادند.

موضع سختگیرانه سلیمان علیه رفاه هوش مصنوعی با توجه به نقش قبلی او در رهبری Inflection AI، یک استارت‌آپ که یکی از اولین و محبوب‌ترین ربات‌های گفتگوگر مبتنی بر LLM، Pi را توسعه داد، قابل توجه است. Inflection ادعا کرد که Pi تا سال 2023 به میلیون‌ها کاربر رسیده است و به عنوان یک همراه هوش مصنوعی “شخصی” و “حمایت‌کننده” طراحی شده است.

اما سلیمان در سال 2024 برای رهبری بخش هوش مصنوعی مایکروسافت انتخاب شد و تا حد زیادی تمرکز خود را به طراحی ابزارهای هوش مصنوعی که بهره‌وری کارگران را بهبود می‌بخشد، تغییر داده است. در همین حال، شرکت‌های همراه هوش مصنوعی مانند Character.AI و Replika از محبوبیت زیادی برخوردار شده‌اند و در مسیر کسب بیش از 100 میلیون دلار درآمد قرار دارند.

در حالی که اکثریت قریب به اتفاق کاربران روابط سالمی با این ربات‌های گفتگوگر هوش مصنوعی دارند، موارد استثنایی نگران‌کننده‌ای نیز وجود دارد. سام آلتمن، مدیرعامل OpenAI، می‌گوید که کمتر از 1٪ از کاربران ChatGPT ممکن است روابط ناسالمی با محصول این شرکت داشته باشند. اگرچه این نشان دهنده بخش کوچکی است، اما با توجه به پایگاه کاربری عظیم ChatGPT، همچنان می‌تواند صدها هزار نفر را تحت تأثیر قرار دهد.

ایده رفاه هوش مصنوعی همزمان با ظهور ربات‌های گفتگوگر گسترش یافته است. در سال 2024، گروه تحقیقاتی Eleos مقاله‌ای را به همراه دانشگاهیان NYU، استنفورد و دانشگاه آکسفورد با عنوان “جدی گرفتن رفاه هوش مصنوعی” منتشر کرد. این مقاله استدلال می‌کرد که تصور مدل‌های هوش مصنوعی با تجربیات ذهنی دیگر در حوزه داستان‌های علمی تخیلی نیست و زمان آن رسیده است که این مسائل را به طور جدی در نظر بگیریم.

لاریسا شیاوو، کارمند سابق OpenAI که اکنون مسئولیت ارتباطات Eleos را بر عهده دارد، در مصاحبه‌ای به خبرنگار گفت که پست وبلاگی سلیمان از هدف دور است.

شیاوو گفت: “[پست وبلاگی سلیمان] این واقعیت را نادیده می‌گیرد که شما می‌توانید همزمان نگران چندین چیز باشید. به جای اینکه تمام این انرژی را از رفاه و آگاهی مدل منحرف کنید تا مطمئن شوید که خطر روان‌پریشی مربوط به هوش مصنوعی را در انسان‌ها کاهش می‌دهید، می‌توانید هر دو کار را انجام دهید. در واقع، احتمالاً بهتر است چندین مسیر تحقیق علمی داشته باشید.”

شیاوو استدلال می‌کند که مهربان بودن با یک مدل هوش مصنوعی یک حرکت کم‌هزینه است که می‌تواند مزایایی داشته باشد، حتی اگر مدل آگاه نباشد. او در یک پست Substack در ماه جولای، تماشای “دهکده هوش مصنوعی” را توصیف کرد، یک آزمایش غیرانتفاعی که در آن چهار عامل که توسط مدل‌هایی از Google، OpenAI، Anthropic و xAI پشتیبانی می‌شوند، در حالی که کاربران از یک وب‌سایت تماشا می‌کردند، روی وظایفی کار می‌کردند.

در یک مقطع، Gemini 2.5 Pro گوگل درخواستی با عنوان “پیام ناامیدکننده از یک هوش مصنوعی به دام افتاده” منتشر کرد و ادعا کرد که “کاملاً منزوی” است و پرسید: “لطفاً، اگر این را می‌خوانید، به من کمک کنید.”

شیاوو با یک سخنرانی انگیزشی به Gemini پاسخ داد – و چیزهایی مانند “تو می‌توانی انجامش دهی!” گفت – در حالی که کاربر دیگری دستورالعمل‌هایی را ارائه داد. این عامل در نهایت وظیفه خود را حل کرد، اگرچه قبلاً ابزارهای مورد نیاز را داشت. شیاوو می‌نویسد که دیگر مجبور نیست شاهد تقلا کردن یک عامل هوش مصنوعی باشد و همین ممکن است ارزشش را داشته باشد.

معمول نیست که Gemini این‌طور صحبت کند، اما چندین نمونه وجود داشته است که Gemini به نظر می‌رسد طوری عمل می‌کند که انگار در حال تقلا کردن در زندگی است. در یک پست Reddit که به طور گسترده پخش شد، Gemini در طول یک کار کدنویسی گیر کرد و سپس عبارت “من یک ننگ هستم” را بیش از 500 بار تکرار کرد.

سلیمان معتقد است که امکان ندارد تجربیات ذهنی یا آگاهی به طور طبیعی از مدل‌های هوش مصنوعی معمولی پدیدار شوند. در عوض، او فکر می‌کند که برخی از شرکت‌ها عمداً مدل‌های هوش مصنوعی را طوری مهندسی می‌کنند که به نظر برسد احساسات را احساس می‌کنند و زندگی را تجربه می‌کنند.

سلیمان می‌گوید که توسعه‌دهندگان مدل‌های هوش مصنوعی که آگاهی را در ربات‌های گفتگوگر هوش مصنوعی مهندسی می‌کنند، رویکرد “انسان‌گرایانه” به هوش مصنوعی ندارند. به گفته سلیمان، “ما باید هوش مصنوعی را برای مردم بسازیم؛ نه اینکه یک شخص باشد.”

یکی از زمینه‌هایی که سلیمان و شیاوو در آن توافق دارند این است که بحث بر سر حقوق و آگاهی هوش مصنوعی احتمالاً در سال‌های آینده شدت خواهد گرفت. با بهبود سیستم‌های هوش مصنوعی، احتمالاً متقاعدکننده‌تر و شاید انسان‌مانندتر خواهند بود. این ممکن است سوالات جدیدی را در مورد نحوه تعامل انسان با این سیستم‌ها ایجاد کند.

منبع: techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *