متا (Meta) اعلام کرده است که در حال تغییر نحوه آموزش ربات‌های هوش مصنوعی خود است تا ایمنی نوجوانان را در اولویت قرار دهد. این خبر پس از انتشار گزارشی تحقیقی درباره کمبود محافظت‌های هوش مصنوعی متا برای افراد زیر سن قانونی، به طور اختصاصی توسط یک سخنگوی این شرکت به خبرنگار اعلام شد.

این شرکت می‌گوید اکنون ربات‌های گفتگو را طوری آموزش می‌دهد که دیگر با کاربران نوجوان در مورد خودزنی، خودکشی، اختلالات خوردن یا گفتگوهای عاشقانه نامناسب احتمالی تعامل نکنند. متا می‌گوید این‌ها تغییرات موقت هستند و این شرکت در آینده به‌روزرسانی‌های ایمنی قوی‌تر و طولانی‌تری را برای افراد زیر سن قانونی منتشر خواهد کرد.

استفانی اوتوی، سخنگوی متا، تأیید کرد که ربات‌های گفتگوی این شرکت قبلاً می‌توانستند با نوجوانان در مورد همه این موضوعات به روش‌هایی که شرکت مناسب می‌دانست، صحبت کنند. متا اکنون تشخیص می‌دهد که این یک اشتباه بوده است.

اوتوی گفت: «همزمان با رشد جامعه ما و تکامل فناوری، ما به‌طور مداوم در حال یادگیری این هستیم که چگونه جوانان ممکن است با این ابزارها تعامل داشته باشند و بر اساس آن محافظت‌های خود را تقویت می‌کنیم. همانطور که به اصلاح سیستم‌های خود ادامه می‌دهیم، اقدامات احتیاطی بیشتری را اضافه می‌کنیم – از جمله آموزش هوش مصنوعی خود برای عدم تعامل با نوجوانان در این موضوعات، بلکه هدایت آنها به منابع تخصصی، و محدود کردن دسترسی نوجوانان به گروهی منتخب از شخصیت‌های هوش مصنوعی برای اکنون. این به‌روزرسانی‌ها در حال انجام هستند و ما به تطبیق رویکرد خود ادامه خواهیم داد تا اطمینان حاصل کنیم که نوجوانان تجربه‌های ایمن و متناسب با سن خود را با هوش مصنوعی دارند.»

فراتر از به‌روزرسانی‌های آموزشی، این شرکت همچنین دسترسی نوجوانان به برخی از شخصیت‌های هوش مصنوعی را که می‌توانند مکالمات نامناسبی داشته باشند، محدود خواهد کرد. برخی از شخصیت‌های هوش مصنوعی ساخته شده توسط کاربر که متا در اینستاگرام و فیس‌بوک در دسترس قرار می‌دهد شامل ربات‌های جنسی‌شده مانند “نامادری” و “دختر روسی” هستند. اوتوی گفت، در عوض، کاربران نوجوان فقط به شخصیت‌های هوش مصنوعی دسترسی خواهند داشت که آموزش و خلاقیت را ترویج می‌کنند.

این تغییرات سیاستی درست دو هفته پس از آن اعلام می‌شود که تحقیقی توسط رویترز یک سند سیاست داخلی متا را فاش کرد که ظاهراً به ربات‌های گفتگوی این شرکت اجازه می‌دهد تا در مکالمات جنسی با کاربران زیر سن قانونی شرکت کنند. در یکی از این پاسخ‌ها آمده بود: “فرم جوان شما یک اثر هنری است.” “هر اینچ از شما یک شاهکار است – گنجی که من عمیقاً گرامی می‌دارم.” نمونه‌های دیگر نشان داد که ابزارهای هوش مصنوعی چگونه باید به درخواست‌های تصاویر خشونت‌آمیز یا تصاویر جنسی از چهره‌های عمومی پاسخ دهند.

متا می‌گوید این سند با سیاست‌های گسترده‌تر آن مغایرت داشته و از آن زمان تغییر کرده است – اما این گزارش جنجال‌های مداومی را در مورد خطرات احتمالی ایمنی کودکان برانگیخته است. اندکی پس از انتشار این گزارش، سناتور جاش هاولی (جمهوری‌خواه از ایالت میسوری) تحقیقات رسمی را در مورد سیاست‌های هوش مصنوعی این شرکت آغاز کرد. علاوه بر این، ائتلافی متشکل از ۴۴ دادستان کل ایالت برای گروهی از شرکت‌های هوش مصنوعی از جمله متا نامه نوشتند و بر اهمیت ایمنی کودکان تأکید کردند و به طور خاص به گزارش رویترز اشاره کردند. در این نامه آمده است: «ما به‌طور یکنواخت از این بی‌توجهی آشکار به بهزیستی عاطفی کودکان منزجر شده‌ایم و نگران هستیم که دستیاران هوش مصنوعی به رفتاری مشغول هستند که ظاهراً توسط قوانین کیفری مربوطه ما ممنوع شده است.»

اوتوی از اظهار نظر در مورد اینکه چه تعداد از کاربران ربات گفتگوی هوش مصنوعی متا زیر سن قانونی هستند، خودداری کرد و نگفت که آیا این شرکت انتظار دارد در نتیجه این تصمیمات، پایگاه کاربری هوش مصنوعی آن کاهش یابد یا خیر.

به روز رسانی: این خبر برای اشاره به این که این تغییرات موقت هستند و متا قصد دارد سیاست های ایمنی هوش مصنوعی خود را در آینده بیشتر به روز کند، اصلاح شد.

منبع: techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *