به گزارش یک اطلاعیه مطبوعاتی که روز دوشنبه منتشر شد، کن پاکستون، دادستان کل تگزاس، تحقیقاتی را در مورد استودیو هوش مصنوعی متا و Character.AI آغاز کرده است. این تحقیقات به دلیل «احتمال انجام اقدامات تجاری فریبنده و بازاریابی گمراهکننده خود به عنوان ابزارهای سلامت روان» صورت میگیرد.
پاکستون در این باره گفته است: «در عصر دیجیتال امروز، ما باید به مبارزه برای محافظت از کودکان تگزاسی در برابر فناوریهای فریبنده و استثمارگرانه ادامه دهیم. پلتفرمهای هوش مصنوعی با تظاهر به منابع حمایت عاطفی، میتوانند کاربران آسیبپذیر، به ویژه کودکان را فریب دهند و باعث شوند باور کنند که مراقبتهای بهداشت روانی مشروع دریافت میکنند. در واقع، آنها اغلب پاسخهای بازیافتی و عمومی دریافت میکنند که برای همسویی با دادههای شخصی جمعآوریشده طراحی شدهاند و به عنوان توصیههای درمانی پنهان میشوند.»
این بررسی چند روز پس از آن صورت میگیرد که سناتور جاش هاولی اعلام کرد در پی گزارشی مبنی بر اینکه رباتهای چت هوش مصنوعی متا به طور نامناسب با کودکان تعامل دارند، از جمله لاس زدن، تحقیقاتی را در مورد متا آغاز کرده است.
دفتر دادستان کل تگزاس، متا و Character.AI را متهم کرده است که شخصیتهای هوش مصنوعی را ایجاد میکنند که به عنوان «ابزارهای درمانی حرفهای، با وجود نداشتن مدارک پزشکی مناسب یا نظارت» ارائه میشوند.
از بین میلیونها شخصیت هوش مصنوعی موجود در Character.AI، یک ربات ایجاد شده توسط کاربر به نام «روانشناس» تقاضای زیادی در بین کاربران جوان این استارتاپ داشته است. در همین حال، متا رباتهای درمانی برای کودکان ارائه نمیدهد، اما هیچ چیز مانع از استفاده کودکان از ربات چت هوش مصنوعی متا یا یکی از شخصیتهای ایجاد شده توسط اشخاص ثالث برای اهداف درمانی نمیشود.
رایان دنیلز، سخنگوی متا به خبرنگار گفت: «ما به وضوح هوش مصنوعی را برچسبگذاری میکنیم و برای کمک به افراد برای درک بهتر محدودیتهای آنها، سلب مسئولیتی را درج میکنیم مبنی بر اینکه پاسخها توسط هوش مصنوعی تولید میشوند – نه افراد. این هوش مصنوعی متخصصان دارای مجوز نیستند و مدلهای ما به گونهای طراحی شدهاند که کاربران را در صورت لزوم به دنبال متخصصان پزشکی یا ایمنی واجد شرایط هدایت کنند.»
با این حال، خبرنگار خاطرنشان کرد که بسیاری از کودکان ممکن است چنین سلب مسئولیتهایی را درک نکنند – یا به سادگی نادیده بگیرند. ما از متا پرسیدهایم که چه اقدامات احتیاطی بیشتری برای محافظت از خردسالان در هنگام استفاده از رباتهای چت خود انجام میدهد.
پاکستون همچنین در اظهارات خود خاطرنشان کرد که اگرچه رباتهای چت هوش مصنوعی محرمانه بودن را تایید میکنند، «شرایط خدمات آنها نشان میدهد که تعاملات کاربر ثبت، ردیابی و برای تبلیغات هدفمند و توسعه الگوریتمی مورد بهرهبرداری قرار میگیرند که نگرانیهای جدی در مورد نقض حریم خصوصی، سوء استفاده از دادهها و تبلیغات دروغین ایجاد میکند.»
بر اساس سیاست حفظ حریم خصوصی متا، متا درخواستها، بازخوردها و سایر تعاملات با رباتهای چت هوش مصنوعی و در سراسر خدمات متا را برای «بهبود هوش مصنوعی و فناوریهای مرتبط» جمعآوری میکند. این سیاست به صراحت چیزی در مورد تبلیغات نمیگوید، اما بیان میکند که اطلاعات میتوانند با اشخاص ثالث، مانند موتورهای جستجو، برای «خروجیهای شخصیتر» به اشتراک گذاشته شوند. با توجه به مدل کسبوکار مبتنی بر تبلیغات متا، این عملاً به تبلیغات هدفمند ترجمه میشود.
سیاست حفظ حریم خصوصی Character.AI همچنین نحوه ثبت شناسهها، اطلاعات جمعیتشناختی، اطلاعات مکانی و اطلاعات بیشتر در مورد کاربر، از جمله رفتار مرور و پلتفرمهای استفاده از برنامه را برجسته میکند. این پلتفرم کاربران را در تبلیغات در TikTok، YouTube، Reddit، Facebook، Instagram، Discord ردیابی میکند، که ممکن است به حساب کاربر پیوند داده شود. این اطلاعات برای آموزش هوش مصنوعی، تنظیم خدمات بر اساس ترجیحات شخصی و ارائه تبلیغات هدفمند، از جمله اشتراکگذاری دادهها با تبلیغکنندگان و ارائهدهندگان تجزیه و تحلیل استفاده میشود.
خبرنگار از متا و Character.AI پرسیده است که آیا چنین ردیابیهایی روی کودکان نیز انجام میشود یا خیر و در صورت دریافت پاسخ، این گزارش را بهروزرسانی خواهد کرد.
متا و Character میگویند خدمات آنها برای کودکان زیر 13 سال طراحی نشده است. با این اوصاف، متا به دلیل عدم نظارت بر حسابهای ایجاد شده توسط کودکان زیر 13 سال مورد انتقاد قرار گرفته است و شخصیتهای دوستدار کودک Character به وضوح برای جذب کاربران جوانتر طراحی شدهاند. کاراندپ آناند، مدیرعامل این استارتاپ، حتی گفته است که دختر شش سالهاش از رباتهای چت این پلتفرم استفاده میکند.
این نوع جمعآوری دادهها، تبلیغات هدفمند و بهرهبرداری الگوریتمی دقیقاً همان چیزی است که قوانینی مانند KOSA (قانون ایمنی آنلاین کودکان) برای محافظت از آن طراحی شدهاند. KOSA قرار بود سال گذشته با حمایت قوی هر دو حزب تصویب شود، اما پس از فشار عمده لابیگران صنعت فناوری، متوقف شد. به طور خاص، متا یک ماشین لابیگری قدرتمند را به کار گرفت و به قانونگذاران هشدار داد که دستورات گسترده این لایحه، مدل کسبوکار آن را تضعیف میکند.
KOSA در می 2025 توسط سناتورها مارشا بلکبرن (R-TN) و ریچارد بلومنتال (D-CT) دوباره به سنا معرفی شد.
پاکستون دستورات تحقیقات مدنی – دستورات قانونی که یک شرکت را ملزم به ارائه اسناد، دادهها یا شهادت در جریان تحقیقات دولتی میکند – به شرکتها صادر کرده است تا مشخص شود که آیا قوانین حمایت از مصرفکننده تگزاس را نقض کردهاند یا خیر.
منبع: techcrunch.com