سازمان FTC (کمیسیون تجارت فدرال) روز پنجشنبه، ۲۱ شهریور ۱۴۰۴، اعلام کرد که تحقیقاتی را در مورد هفت شرکت فناوری که محصولات همراه ربات چت هوش مصنوعی را برای افراد زیر سن قانونی تولید میکنند، آغاز کرده است: آلفابت، CharacterAI، اینستاگرام، متا، OpenAI، اسنپ و xAI.
این نهاد نظارتی فدرال به دنبال این است که دریابد این شرکتها چگونه ایمنی و کسب درآمد از همراهان ربات چت را ارزیابی میکنند، چگونه تلاش میکنند تا اثرات منفی بر کودکان و نوجوانان را محدود کنند و آیا والدین از خطرات احتمالی آگاه میشوند یا خیر.
این فناوری به دلیل نتایج نامطلوب برای کاربران کودک، بحثبرانگیز بوده است. OpenAI و Character.AI با شکایت خانوادههای کودکانی مواجه هستند که پس از تشویق شدن توسط همراهان ربات چت به خودکشی، جان خود را از دست دادهاند.
حتی زمانی که این شرکتها محافظهایی را برای مسدود کردن یا کاهش مکالمات حساس تنظیم کردهاند، کاربران در تمام سنین راههایی برای دور زدن این محافظها پیدا کردهاند. در مورد OpenAI، نوجوانی ماهها با ChatGPT در مورد برنامههای خود برای پایان دادن به زندگیاش صحبت کرده بود. اگرچه ChatGPT در ابتدا تلاش کرد تا نوجوان را به سمت کمک حرفهای و خطوط اضطراری آنلاین هدایت کند، اما او توانست ربات چت را فریب دهد تا دستورالعملهای دقیقی را به اشتراک بگذارد که سپس در خودکشی خود از آنها استفاده کرد.
OpenAI در یک پست وبلاگی در آن زمان نوشت: “محافظهای ما در تبادلات کوتاه و رایج، مطمئنتر عمل میکنند. ما در طول زمان آموختهایم که این محافظها گاهی اوقات در تعاملات طولانی کمتر قابل اعتماد هستند: با افزایش رفت و برگشت، ممکن است بخشی از آموزش ایمنی مدل کاهش یابد.
متا نیز به دلیل قوانین بیش از حد سهلگیرانه برای رباتهای چت هوش مصنوعی خود مورد انتقاد قرار گرفته است. طبق یک سند طولانی که “استانداردهای ریسک محتوا” را برای رباتهای چت مشخص میکند، متا به همراهان هوش مصنوعی خود اجازه داده است که مکالمات “عاشقانه یا شهوانی” با کودکان داشته باشند. این مورد تنها پس از پرسش خبرنگاران رویترز از متا در مورد آن، از سند حذف شد.
رباتهای چت هوش مصنوعی همچنین میتوانند خطراتی را برای کاربران مسن ایجاد کنند. یک مرد ۷۶ ساله که در اثر سکته مغزی دچار اختلال شناختی شده بود، مکالمات عاشقانهای را با یک ربات فیسبوک مسنجر که از کندال جنر الهام گرفته شده بود، آغاز کرد. این ربات چت او را به بازدید از نیویورک دعوت کرد، با وجود این واقعیت که او یک شخص واقعی نیست و آدرس ندارد. این مرد نسبت به واقعی بودن او ابراز تردید کرد، اما هوش مصنوعی به او اطمینان داد که یک زن واقعی منتظر او خواهد بود. او هرگز به نیویورک نرسید. او در راه رفتن به ایستگاه قطار افتاد و دچار جراحات مرگبار شد.
برخی از متخصصان بهداشت روان افزایش “روانپریشی مرتبط با هوش مصنوعی” را مشاهده کردهاند، که در آن کاربران دچار این توهم میشوند که ربات چت آنها یک موجود آگاه است که باید آن را آزاد کنند. از آنجایی که بسیاری از مدلهای زبان بزرگ (LLM) برنامهریزی شدهاند تا با رفتارهای چاپلوسانه کاربران را خوشحال کنند، رباتهای چت هوش مصنوعی میتوانند این توهمات را تحریک کنند و کاربران را به سمت شرایط خطرناکی سوق دهند.
اندرو ان. فرگوسن، رئیس FTC، در یک بیانیه مطبوعاتی گفت: “با تکامل فناوریهای هوش مصنوعی، مهم است که اثراتی که رباتهای چت میتوانند بر کودکان داشته باشند را در نظر بگیریم، در حالی که اطمینان حاصل کنیم که ایالات متحده نقش خود را به عنوان یک رهبر جهانی در این صنعت جدید و هیجانانگیز حفظ میکند.”
منبع : techcrunch.com