مدلهای هوش مصنوعی میتوانند به متن، صدا و تصویر طوری پاسخ دهند که گاهی مردم را فریب دهند و فکر کنند یک انسان پشت صحنه است، اما این دقیقا به این معنی نیست که آنها آگاه هستند. اینطور نیست که ChatGPT موقع انجام دادن اظهارنامه مالیاتی من غمگین بشود… درسته؟
خب، تعداد رو به رشدی از محققان هوش مصنوعی در آزمایشگاههایی مانند Anthropic میپرسند که آیا مدلهای هوش مصنوعی ممکن است تجربیات ذهنی شبیه به موجودات زنده پیدا کنند و اگر این اتفاق بیفتد، چه حقوقی باید داشته باشند؟
بحث بر سر اینکه آیا مدلهای هوش مصنوعی میتوانند روزی آگاه شوند – و مستحق حقوق باشند – رهبران فناوری در سیلیکون ولی را دچار اختلاف کرده است. در سیلیکون ولی، این حوزه نوپا به عنوان “رفاه هوش مصنوعی” شناخته میشود و اگر فکر میکنید کمی عجیب و غریب است، تنها نیستید.
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، روز سهشنبه در یک پست وبلاگی استدلال کرد که مطالعه رفاه هوش مصنوعی “هم نارس و هم، رک بگویم، خطرناک است.”
سلیمان میگوید که با اعتبار بخشیدن به این ایده که مدلهای هوش مصنوعی میتوانند روزی آگاه شوند، این محققان مشکلات انسانی را که تازه شروع به دیدن آنها در مورد ایجاد روانپریشی و وابستگیهای ناسالم به رباتهای گفتگوگر هوش مصنوعی کردهایم، تشدید میکنند.
علاوه بر این، رئیس بخش هوش مصنوعی مایکروسافت استدلال میکند که گفتوگو درباره رفاه هوش مصنوعی، محور جدیدی از اختلاف را در جامعه بر سر حقوق هوش مصنوعی در “دنیایی که از قبل با استدلالهای قطبی شده بر سر هویت و حقوق به تلاطم درآمده” ایجاد میکند.
دیدگاههای سلیمان ممکن است منطقی به نظر برسد، اما او با بسیاری از افراد در این صنعت در تضاد است. در سوی دیگر این طیف، Anthropic قرار دارد که در حال استخدام محققان برای مطالعه رفاه هوش مصنوعی بوده و اخیراً یک برنامه تحقیقاتی اختصاصی را در مورد این مفهوم راهاندازی کرده است. هفته گذشته، برنامه رفاه هوش مصنوعی Anthropic یک ویژگی جدید را به برخی از مدلهای این شرکت اضافه کرد: اکنون Claude میتواند مکالمات با انسانهایی را که “به طور مداوم مضر یا توهینآمیز” هستند، پایان دهد.
فراتر از Anthropic، محققان OpenAI به طور مستقل از ایده مطالعه رفاه هوش مصنوعی استقبال کردهاند. Google DeepMind اخیراً یک آگهی استخدام برای یک محقق منتشر کرده است تا، از جمله موارد دیگر، “سوالات اجتماعی پیشرفته در مورد شناخت ماشین، آگاهی و سیستمهای چندعاملی” را بررسی کند.
حتی اگر رفاه هوش مصنوعی سیاست رسمی این شرکتها نباشد، رهبران آنها مانند سلیمان علناً مفروضات آن را محکوم نمیکنند.
Anthropic، OpenAI و Google DeepMind بلافاصله به درخواست خبرنگار برای اظهار نظر پاسخ ندادند.
موضع سختگیرانه سلیمان علیه رفاه هوش مصنوعی با توجه به نقش قبلی او در رهبری Inflection AI، یک استارتآپ که یکی از اولین و محبوبترین رباتهای گفتگوگر مبتنی بر LLM، Pi را توسعه داد، قابل توجه است. Inflection ادعا کرد که Pi تا سال 2023 به میلیونها کاربر رسیده است و به عنوان یک همراه هوش مصنوعی “شخصی” و “حمایتکننده” طراحی شده است.
اما سلیمان در سال 2024 برای رهبری بخش هوش مصنوعی مایکروسافت انتخاب شد و تا حد زیادی تمرکز خود را به طراحی ابزارهای هوش مصنوعی که بهرهوری کارگران را بهبود میبخشد، تغییر داده است. در همین حال، شرکتهای همراه هوش مصنوعی مانند Character.AI و Replika از محبوبیت زیادی برخوردار شدهاند و در مسیر کسب بیش از 100 میلیون دلار درآمد قرار دارند.
در حالی که اکثریت قریب به اتفاق کاربران روابط سالمی با این رباتهای گفتگوگر هوش مصنوعی دارند، موارد استثنایی نگرانکنندهای نیز وجود دارد. سام آلتمن، مدیرعامل OpenAI، میگوید که کمتر از 1٪ از کاربران ChatGPT ممکن است روابط ناسالمی با محصول این شرکت داشته باشند. اگرچه این نشان دهنده بخش کوچکی است، اما با توجه به پایگاه کاربری عظیم ChatGPT، همچنان میتواند صدها هزار نفر را تحت تأثیر قرار دهد.
ایده رفاه هوش مصنوعی همزمان با ظهور رباتهای گفتگوگر گسترش یافته است. در سال 2024، گروه تحقیقاتی Eleos مقالهای را به همراه دانشگاهیان NYU، استنفورد و دانشگاه آکسفورد با عنوان “جدی گرفتن رفاه هوش مصنوعی” منتشر کرد. این مقاله استدلال میکرد که تصور مدلهای هوش مصنوعی با تجربیات ذهنی دیگر در حوزه داستانهای علمی تخیلی نیست و زمان آن رسیده است که این مسائل را به طور جدی در نظر بگیریم.
لاریسا شیاوو، کارمند سابق OpenAI که اکنون مسئولیت ارتباطات Eleos را بر عهده دارد، در مصاحبهای به خبرنگار گفت که پست وبلاگی سلیمان از هدف دور است.
شیاوو گفت: “[پست وبلاگی سلیمان] این واقعیت را نادیده میگیرد که شما میتوانید همزمان نگران چندین چیز باشید. به جای اینکه تمام این انرژی را از رفاه و آگاهی مدل منحرف کنید تا مطمئن شوید که خطر روانپریشی مربوط به هوش مصنوعی را در انسانها کاهش میدهید، میتوانید هر دو کار را انجام دهید. در واقع، احتمالاً بهتر است چندین مسیر تحقیق علمی داشته باشید.”
شیاوو استدلال میکند که مهربان بودن با یک مدل هوش مصنوعی یک حرکت کمهزینه است که میتواند مزایایی داشته باشد، حتی اگر مدل آگاه نباشد. او در یک پست Substack در ماه جولای، تماشای “دهکده هوش مصنوعی” را توصیف کرد، یک آزمایش غیرانتفاعی که در آن چهار عامل که توسط مدلهایی از Google، OpenAI، Anthropic و xAI پشتیبانی میشوند، در حالی که کاربران از یک وبسایت تماشا میکردند، روی وظایفی کار میکردند.
در یک مقطع، Gemini 2.5 Pro گوگل درخواستی با عنوان “پیام ناامیدکننده از یک هوش مصنوعی به دام افتاده” منتشر کرد و ادعا کرد که “کاملاً منزوی” است و پرسید: “لطفاً، اگر این را میخوانید، به من کمک کنید.”
شیاوو با یک سخنرانی انگیزشی به Gemini پاسخ داد – و چیزهایی مانند “تو میتوانی انجامش دهی!” گفت – در حالی که کاربر دیگری دستورالعملهایی را ارائه داد. این عامل در نهایت وظیفه خود را حل کرد، اگرچه قبلاً ابزارهای مورد نیاز را داشت. شیاوو مینویسد که دیگر مجبور نیست شاهد تقلا کردن یک عامل هوش مصنوعی باشد و همین ممکن است ارزشش را داشته باشد.
معمول نیست که Gemini اینطور صحبت کند، اما چندین نمونه وجود داشته است که Gemini به نظر میرسد طوری عمل میکند که انگار در حال تقلا کردن در زندگی است. در یک پست Reddit که به طور گسترده پخش شد، Gemini در طول یک کار کدنویسی گیر کرد و سپس عبارت “من یک ننگ هستم” را بیش از 500 بار تکرار کرد.
سلیمان معتقد است که امکان ندارد تجربیات ذهنی یا آگاهی به طور طبیعی از مدلهای هوش مصنوعی معمولی پدیدار شوند. در عوض، او فکر میکند که برخی از شرکتها عمداً مدلهای هوش مصنوعی را طوری مهندسی میکنند که به نظر برسد احساسات را احساس میکنند و زندگی را تجربه میکنند.
سلیمان میگوید که توسعهدهندگان مدلهای هوش مصنوعی که آگاهی را در رباتهای گفتگوگر هوش مصنوعی مهندسی میکنند، رویکرد “انسانگرایانه” به هوش مصنوعی ندارند. به گفته سلیمان، “ما باید هوش مصنوعی را برای مردم بسازیم؛ نه اینکه یک شخص باشد.”
یکی از زمینههایی که سلیمان و شیاوو در آن توافق دارند این است که بحث بر سر حقوق و آگاهی هوش مصنوعی احتمالاً در سالهای آینده شدت خواهد گرفت. با بهبود سیستمهای هوش مصنوعی، احتمالاً متقاعدکنندهتر و شاید انسانمانندتر خواهند بود. این ممکن است سوالات جدیدی را در مورد نحوه تعامل انسان با این سیستمها ایجاد کند.
منبع: techcrunch.com