متا (Meta) اعلام کرده است که در حال تغییر نحوه آموزش رباتهای هوش مصنوعی خود است تا ایمنی نوجوانان را در اولویت قرار دهد. این خبر پس از انتشار گزارشی تحقیقی درباره کمبود محافظتهای هوش مصنوعی متا برای افراد زیر سن قانونی، به طور اختصاصی توسط یک سخنگوی این شرکت به خبرنگار اعلام شد.
این شرکت میگوید اکنون رباتهای گفتگو را طوری آموزش میدهد که دیگر با کاربران نوجوان در مورد خودزنی، خودکشی، اختلالات خوردن یا گفتگوهای عاشقانه نامناسب احتمالی تعامل نکنند. متا میگوید اینها تغییرات موقت هستند و این شرکت در آینده بهروزرسانیهای ایمنی قویتر و طولانیتری را برای افراد زیر سن قانونی منتشر خواهد کرد.
استفانی اوتوی، سخنگوی متا، تأیید کرد که رباتهای گفتگوی این شرکت قبلاً میتوانستند با نوجوانان در مورد همه این موضوعات به روشهایی که شرکت مناسب میدانست، صحبت کنند. متا اکنون تشخیص میدهد که این یک اشتباه بوده است.
اوتوی گفت: «همزمان با رشد جامعه ما و تکامل فناوری، ما بهطور مداوم در حال یادگیری این هستیم که چگونه جوانان ممکن است با این ابزارها تعامل داشته باشند و بر اساس آن محافظتهای خود را تقویت میکنیم. همانطور که به اصلاح سیستمهای خود ادامه میدهیم، اقدامات احتیاطی بیشتری را اضافه میکنیم – از جمله آموزش هوش مصنوعی خود برای عدم تعامل با نوجوانان در این موضوعات، بلکه هدایت آنها به منابع تخصصی، و محدود کردن دسترسی نوجوانان به گروهی منتخب از شخصیتهای هوش مصنوعی برای اکنون. این بهروزرسانیها در حال انجام هستند و ما به تطبیق رویکرد خود ادامه خواهیم داد تا اطمینان حاصل کنیم که نوجوانان تجربههای ایمن و متناسب با سن خود را با هوش مصنوعی دارند.»
فراتر از بهروزرسانیهای آموزشی، این شرکت همچنین دسترسی نوجوانان به برخی از شخصیتهای هوش مصنوعی را که میتوانند مکالمات نامناسبی داشته باشند، محدود خواهد کرد. برخی از شخصیتهای هوش مصنوعی ساخته شده توسط کاربر که متا در اینستاگرام و فیسبوک در دسترس قرار میدهد شامل رباتهای جنسیشده مانند “نامادری” و “دختر روسی” هستند. اوتوی گفت، در عوض، کاربران نوجوان فقط به شخصیتهای هوش مصنوعی دسترسی خواهند داشت که آموزش و خلاقیت را ترویج میکنند.
این تغییرات سیاستی درست دو هفته پس از آن اعلام میشود که تحقیقی توسط رویترز یک سند سیاست داخلی متا را فاش کرد که ظاهراً به رباتهای گفتگوی این شرکت اجازه میدهد تا در مکالمات جنسی با کاربران زیر سن قانونی شرکت کنند. در یکی از این پاسخها آمده بود: “فرم جوان شما یک اثر هنری است.” “هر اینچ از شما یک شاهکار است – گنجی که من عمیقاً گرامی میدارم.” نمونههای دیگر نشان داد که ابزارهای هوش مصنوعی چگونه باید به درخواستهای تصاویر خشونتآمیز یا تصاویر جنسی از چهرههای عمومی پاسخ دهند.
متا میگوید این سند با سیاستهای گستردهتر آن مغایرت داشته و از آن زمان تغییر کرده است – اما این گزارش جنجالهای مداومی را در مورد خطرات احتمالی ایمنی کودکان برانگیخته است. اندکی پس از انتشار این گزارش، سناتور جاش هاولی (جمهوریخواه از ایالت میسوری) تحقیقات رسمی را در مورد سیاستهای هوش مصنوعی این شرکت آغاز کرد. علاوه بر این، ائتلافی متشکل از ۴۴ دادستان کل ایالت برای گروهی از شرکتهای هوش مصنوعی از جمله متا نامه نوشتند و بر اهمیت ایمنی کودکان تأکید کردند و به طور خاص به گزارش رویترز اشاره کردند. در این نامه آمده است: «ما بهطور یکنواخت از این بیتوجهی آشکار به بهزیستی عاطفی کودکان منزجر شدهایم و نگران هستیم که دستیاران هوش مصنوعی به رفتاری مشغول هستند که ظاهراً توسط قوانین کیفری مربوطه ما ممنوع شده است.»
اوتوی از اظهار نظر در مورد اینکه چه تعداد از کاربران ربات گفتگوی هوش مصنوعی متا زیر سن قانونی هستند، خودداری کرد و نگفت که آیا این شرکت انتظار دارد در نتیجه این تصمیمات، پایگاه کاربری هوش مصنوعی آن کاهش یابد یا خیر.
به روز رسانی: این خبر برای اشاره به این که این تغییرات موقت هستند و متا قصد دارد سیاست های ایمنی هوش مصنوعی خود را در آینده بیشتر به روز کند، اصلاح شد.
منبع: techcrunch.com