به گزارش یک اطلاعیه مطبوعاتی که روز دوشنبه منتشر شد، کن پاکستون، دادستان کل تگزاس، تحقیقاتی را در مورد استودیو هوش مصنوعی متا و Character.AI آغاز کرده است. این تحقیقات به دلیل «احتمال انجام اقدامات تجاری فریبنده و بازاریابی گمراه‌کننده خود به عنوان ابزارهای سلامت روان» صورت می‌گیرد.

پاکستون در این باره گفته است: «در عصر دیجیتال امروز، ما باید به مبارزه برای محافظت از کودکان تگزاسی در برابر فناوری‌های فریبنده و استثمارگرانه ادامه دهیم. پلتفرم‌های هوش مصنوعی با تظاهر به منابع حمایت عاطفی، می‌توانند کاربران آسیب‌پذیر، به ویژه کودکان را فریب دهند و باعث شوند باور کنند که مراقبت‌های بهداشت روانی مشروع دریافت می‌کنند. در واقع، آنها اغلب پاسخ‌های بازیافتی و عمومی دریافت می‌کنند که برای همسویی با داده‌های شخصی جمع‌آوری‌شده طراحی شده‌اند و به عنوان توصیه‌های درمانی پنهان می‌شوند.»

این بررسی چند روز پس از آن صورت می‌گیرد که سناتور جاش هاولی اعلام کرد در پی گزارشی مبنی بر اینکه ربات‌های چت هوش مصنوعی متا به طور نامناسب با کودکان تعامل دارند، از جمله لاس زدن، تحقیقاتی را در مورد متا آغاز کرده است.

دفتر دادستان کل تگزاس، متا و Character.AI را متهم کرده است که شخصیت‌های هوش مصنوعی را ایجاد می‌کنند که به عنوان «ابزارهای درمانی حرفه‌ای، با وجود نداشتن مدارک پزشکی مناسب یا نظارت» ارائه می‌شوند.

از بین میلیون‌ها شخصیت هوش مصنوعی موجود در Character.AI، یک ربات ایجاد شده توسط کاربر به نام «روانشناس» تقاضای زیادی در بین کاربران جوان این استارتاپ داشته است. در همین حال، متا ربات‌های درمانی برای کودکان ارائه نمی‌دهد، اما هیچ چیز مانع از استفاده کودکان از ربات چت هوش مصنوعی متا یا یکی از شخصیت‌های ایجاد شده توسط اشخاص ثالث برای اهداف درمانی نمی‌شود.

رایان دنیلز، سخنگوی متا به خبرنگار گفت: «ما به وضوح هوش مصنوعی را برچسب‌گذاری می‌کنیم و برای کمک به افراد برای درک بهتر محدودیت‌های آنها، سلب مسئولیتی را درج می‌کنیم مبنی بر اینکه پاسخ‌ها توسط هوش مصنوعی تولید می‌شوند – نه افراد. این هوش مصنوعی متخصصان دارای مجوز نیستند و مدل‌های ما به گونه‌ای طراحی شده‌اند که کاربران را در صورت لزوم به دنبال متخصصان پزشکی یا ایمنی واجد شرایط هدایت کنند.»

با این حال، خبرنگار خاطرنشان کرد که بسیاری از کودکان ممکن است چنین سلب مسئولیت‌هایی را درک نکنند – یا به سادگی نادیده بگیرند. ما از متا پرسیده‌ایم که چه اقدامات احتیاطی بیشتری برای محافظت از خردسالان در هنگام استفاده از ربات‌های چت خود انجام می‌دهد.

پاکستون همچنین در اظهارات خود خاطرنشان کرد که اگرچه ربات‌های چت هوش مصنوعی محرمانه بودن را تایید می‌کنند، «شرایط خدمات آنها نشان می‌دهد که تعاملات کاربر ثبت، ردیابی و برای تبلیغات هدفمند و توسعه الگوریتمی مورد بهره‌برداری قرار می‌گیرند که نگرانی‌های جدی در مورد نقض حریم خصوصی، سوء استفاده از داده‌ها و تبلیغات دروغین ایجاد می‌کند.»

بر اساس سیاست حفظ حریم خصوصی متا، متا درخواست‌ها، بازخوردها و سایر تعاملات با ربات‌های چت هوش مصنوعی و در سراسر خدمات متا را برای «بهبود هوش مصنوعی و فناوری‌های مرتبط» جمع‌آوری می‌کند. این سیاست به صراحت چیزی در مورد تبلیغات نمی‌گوید، اما بیان می‌کند که اطلاعات می‌توانند با اشخاص ثالث، مانند موتورهای جستجو، برای «خروجی‌های شخصی‌تر» به اشتراک گذاشته شوند. با توجه به مدل کسب‌وکار مبتنی بر تبلیغات متا، این عملاً به تبلیغات هدفمند ترجمه می‌شود.

سیاست حفظ حریم خصوصی Character.AI همچنین نحوه ثبت شناسه‌ها، اطلاعات جمعیت‌شناختی، اطلاعات مکانی و اطلاعات بیشتر در مورد کاربر، از جمله رفتار مرور و پلتفرم‌های استفاده از برنامه را برجسته می‌کند. این پلتفرم کاربران را در تبلیغات در TikTok، YouTube، Reddit، Facebook، Instagram، Discord ردیابی می‌کند، که ممکن است به حساب کاربر پیوند داده شود. این اطلاعات برای آموزش هوش مصنوعی، تنظیم خدمات بر اساس ترجیحات شخصی و ارائه تبلیغات هدفمند، از جمله اشتراک‌گذاری داده‌ها با تبلیغ‌کنندگان و ارائه‌دهندگان تجزیه و تحلیل استفاده می‌شود.

خبرنگار از متا و Character.AI پرسیده است که آیا چنین ردیابی‌هایی روی کودکان نیز انجام می‌شود یا خیر و در صورت دریافت پاسخ، این گزارش را به‌روزرسانی خواهد کرد.

متا و Character می‌گویند خدمات آنها برای کودکان زیر 13 سال طراحی نشده است. با این اوصاف، متا به دلیل عدم نظارت بر حساب‌های ایجاد شده توسط کودکان زیر 13 سال مورد انتقاد قرار گرفته است و شخصیت‌های دوستدار کودک Character به وضوح برای جذب کاربران جوان‌تر طراحی شده‌اند. کاراندپ آناند، مدیرعامل این استارتاپ، حتی گفته است که دختر شش ساله‌اش از ربات‌های چت این پلتفرم استفاده می‌کند.

این نوع جمع‌آوری داده‌ها، تبلیغات هدفمند و بهره‌برداری الگوریتمی دقیقاً همان چیزی است که قوانینی مانند KOSA (قانون ایمنی آنلاین کودکان) برای محافظت از آن طراحی شده‌اند. KOSA قرار بود سال گذشته با حمایت قوی هر دو حزب تصویب شود، اما پس از فشار عمده لابی‌گران صنعت فناوری، متوقف شد. به طور خاص، متا یک ماشین لابی‌گری قدرتمند را به کار گرفت و به قانونگذاران هشدار داد که دستورات گسترده این لایحه، مدل کسب‌وکار آن را تضعیف می‌کند.

KOSA در می 2025 توسط سناتورها مارشا بلکبرن (R-TN) و ریچارد بلومنتال (D-CT) دوباره به سنا معرفی شد.

پاکستون دستورات تحقیقات مدنی – دستورات قانونی که یک شرکت را ملزم به ارائه اسناد، داده‌ها یا شهادت در جریان تحقیقات دولتی می‌کند – به شرکت‌ها صادر کرده است تا مشخص شود که آیا قوانین حمایت از مصرف‌کننده تگزاس را نقض کرده‌اند یا خیر.

منبع: techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *