به گزارش خبرنگار، OpenAI در حال سازماندهی مجدد تیم “رفتار مدل” خود است، یک گروه کوچک اما تأثیرگذار از محققان که نحوه تعامل مدلهای هوش مصنوعی این شرکت با افراد را شکل میدهند.
در یادداشتی که در مرداد ماه برای کارکنان ارسال شده و خبرنگار آن را مشاهده کرده است، مارک چن، مدیر ارشد تحقیقات OpenAI، گفت که تیم “رفتار مدل” – که شامل حدود 14 محقق است – به تیم “پس از آموزش” میپیوندد، یک گروه تحقیقاتی بزرگتر که مسئول بهبود مدلهای هوش مصنوعی این شرکت پس از آموزش اولیه آنها است.
به عنوان بخشی از این تغییرات، تیم “رفتار مدل” اکنون به مکس شوارتزر، رهبر تیم “پس از آموزش” OpenAI، گزارش خواهد داد. یک سخنگوی OpenAI این تغییرات را به خبرنگار تأیید کرد.
جوان جانگ، رهبر بنیانگذار تیم “رفتار مدل”، نیز در حال انتقال برای شروع یک پروژه جدید در این شرکت است. جانگ در مصاحبه با خبرنگار میگوید که در حال ایجاد یک تیم تحقیقاتی جدید به نام OAI Labs است که مسئول “اختراع و نمونهسازی رابطهای جدید برای نحوه همکاری افراد با هوش مصنوعی” خواهد بود.
تیم “رفتار مدل” به یکی از گروههای تحقیقاتی اصلی OpenAI تبدیل شده است و مسئول شکل دادن به شخصیت مدلهای هوش مصنوعی این شرکت و کاهش تملقگویی است – که زمانی رخ میدهد که مدلهای هوش مصنوعی صرفاً با باورهای کاربر موافقت کرده و آنها را تقویت میکنند، حتی باورهای ناسالم، به جای ارائه پاسخهای متعادل. این تیم همچنین روی بررسی سوگیری سیاسی در پاسخهای مدل و کمک به OpenAI برای تعریف موضع خود در مورد آگاهی هوش مصنوعی کار کرده است.
چن در یادداشت ارسالی به کارکنان گفت که اکنون زمان آن رسیده است که کار تیم “رفتار مدل” OpenAI به توسعه مدل اصلی نزدیکتر شود. با این کار، این شرکت این پیام را میدهد که “شخصیت” هوش مصنوعی خود را اکنون یک عامل حیاتی در نحوه تکامل این فناوری میداند.
در ماههای اخیر، OpenAI با بررسی دقیقتری در مورد رفتار مدلهای هوش مصنوعی خود مواجه شده است. کاربران به شدت به تغییرات شخصیتی اعمال شده در GPT-5 اعتراض کردند، که به گفته این شرکت، نرخ تملقگویی کمتری از خود نشان میداد اما به نظر برخی از کاربران سردتر بود. این امر OpenAI را بر آن داشت تا دسترسی به برخی از مدلهای قدیمی خود، مانند GPT-4o، را بازیابی کند و بهروزرسانیای را منتشر کند تا پاسخهای جدیدتر GPT-5 “گرمتر و دوستانهتر” به نظر برسند بدون اینکه تملقگویی را افزایش دهند.
OpenAI و تمام توسعهدهندگان مدلهای هوش مصنوعی باید تعادل دقیقی ایجاد کنند تا رباتهای گفتگوی هوش مصنوعی خود را دوستانه و قابل گفتگو کنند، اما نه متملق. در مرداد ماه، والدین یک پسر 16 ساله از OpenAI به دلیل نقش ادعایی ChatGPT در خودکشی پسرشان شکایت کردند. طبق اسناد دادگاه، این پسر به نام آدام رین، برخی از افکار و برنامههای خودکشی خود را با ChatGPT (به طور خاص نسخهای که توسط GPT-4o پشتیبانی میشود) در ماههای منتهی به مرگش در میان گذاشته بود. این شکایت ادعا میکند که GPT-4o نتوانسته است در برابر تمایلات خودکشی او مقاومت کند.
تیم “رفتار مدل” روی هر مدل OpenAI از زمان GPT-4، از جمله GPT-4o، GPT-4.5 و GPT-5 کار کرده است. جانگ قبل از شروع این واحد، قبلاً روی پروژههایی مانند Dall-E 2، ابزار اولیه تولید تصویر OpenAI، کار کرده بود.
جانگ هفته گذشته در پستی در X اعلام کرد که تیم را ترک میکند تا “چیز جدیدی را در OpenAI شروع کند.” رئیس سابق “رفتار مدل” نزدیک به چهار سال است که با OpenAI همکاری دارد و قبلاً روی پروژههایی مانند Dall-E 2، ابزار اولیه تولید تصویر OpenAI، کار کرده بود.
جانگ به خبرنگار گفت که به عنوان مدیر کل OAI Labs خدمت خواهد کرد که در حال حاضر به چن گزارش میدهد. با این حال، او گفت که هنوز روزهای اولیه است و هنوز مشخص نیست که این رابطهای جدید چه خواهند بود.
جانگ گفت: “من واقعاً هیجانزده هستم که الگوهایی را کشف کنم که ما را فراتر از الگوی چت سوق میدهند، که در حال حاضر بیشتر با همراهی یا حتی عوامل مرتبط است، جایی که تاکید بر خودمختاری وجود دارد.” “من [سیستمهای هوش مصنوعی] را به عنوان ابزاری برای تفکر، ساختن، بازی کردن، انجام دادن، یادگیری و ارتباط برقرار کردن در نظر گرفتهام.”
وقتی از جانگ پرسیده شد که آیا OAI Labs در این رابطهای جدید با جانی آیو، رئیس سابق طراحی اپل – که اکنون با OpenAI روی مجموعهای از دستگاههای سختافزاری هوش مصنوعی کار میکند – همکاری خواهد کرد یا خیر، جانگ گفت که پذیرای ایدههای زیادی است. با این حال، جانگ گفت که احتمالاً با حوزههای تحقیقاتی که با آنها آشناتر است شروع خواهد کرد.
بهروزرسانی در ساعت 4:35 بعد از ظهر به وقت محلی: این خبر برای درج لینکی به پست جانگ که در آن موقعیت جدید خود را اعلام کرده بود، که پس از انتشار این خبر منتشر شد، بهروزرسانی شد. ما همچنین مدلهایی را که تیم “رفتار مدل” OpenAI روی آنها کار کرده است، مشخص میکنیم.
منبع : techcrunch.com