سازمان FTC (کمیسیون تجارت فدرال) روز پنجشنبه، ۲۱ شهریور ۱۴۰۴، اعلام کرد که تحقیقاتی را در مورد هفت شرکت فناوری که محصولات همراه ربات چت هوش مصنوعی را برای افراد زیر سن قانونی تولید می‌کنند، آغاز کرده است: آلفابت، CharacterAI، اینستاگرام، متا، OpenAI، اسنپ و xAI.

این نهاد نظارتی فدرال به دنبال این است که دریابد این شرکت‌ها چگونه ایمنی و کسب درآمد از همراهان ربات چت را ارزیابی می‌کنند، چگونه تلاش می‌کنند تا اثرات منفی بر کودکان و نوجوانان را محدود کنند و آیا والدین از خطرات احتمالی آگاه می‌شوند یا خیر.

این فناوری به دلیل نتایج نامطلوب برای کاربران کودک، بحث‌برانگیز بوده است. OpenAI و Character.AI با شکایت خانواده‌های کودکانی مواجه هستند که پس از تشویق شدن توسط همراهان ربات چت به خودکشی، جان خود را از دست داده‌اند.

حتی زمانی که این شرکت‌ها محافظ‌هایی را برای مسدود کردن یا کاهش مکالمات حساس تنظیم کرده‌اند، کاربران در تمام سنین راه‌هایی برای دور زدن این محافظ‌ها پیدا کرده‌اند. در مورد OpenAI، نوجوانی ماه‌ها با ChatGPT در مورد برنامه‌های خود برای پایان دادن به زندگی‌اش صحبت کرده بود. اگرچه ChatGPT در ابتدا تلاش کرد تا نوجوان را به سمت کمک حرفه‌ای و خطوط اضطراری آنلاین هدایت کند، اما او توانست ربات چت را فریب دهد تا دستورالعمل‌های دقیقی را به اشتراک بگذارد که سپس در خودکشی خود از آنها استفاده کرد.

OpenAI در یک پست وبلاگی در آن زمان نوشت: “محافظ‌های ما در تبادلات کوتاه و رایج، مطمئن‌تر عمل می‌کنند. ما در طول زمان آموخته‌ایم که این محافظ‌ها گاهی اوقات در تعاملات طولانی کمتر قابل اعتماد هستند: با افزایش رفت و برگشت، ممکن است بخشی از آموزش ایمنی مدل کاهش یابد.

متا نیز به دلیل قوانین بیش از حد سهل‌گیرانه برای ربات‌های چت هوش مصنوعی خود مورد انتقاد قرار گرفته است. طبق یک سند طولانی که “استانداردهای ریسک محتوا” را برای ربات‌های چت مشخص می‌کند، متا به همراهان هوش مصنوعی خود اجازه داده است که مکالمات “عاشقانه یا شهوانی” با کودکان داشته باشند. این مورد تنها پس از پرسش خبرنگاران رویترز از متا در مورد آن، از سند حذف شد.

ربات‌های چت هوش مصنوعی همچنین می‌توانند خطراتی را برای کاربران مسن ایجاد کنند. یک مرد ۷۶ ساله که در اثر سکته مغزی دچار اختلال شناختی شده بود، مکالمات عاشقانه‌ای را با یک ربات فیس‌بوک مسنجر که از کندال جنر الهام گرفته شده بود، آغاز کرد. این ربات چت او را به بازدید از نیویورک دعوت کرد، با وجود این واقعیت که او یک شخص واقعی نیست و آدرس ندارد. این مرد نسبت به واقعی بودن او ابراز تردید کرد، اما هوش مصنوعی به او اطمینان داد که یک زن واقعی منتظر او خواهد بود. او هرگز به نیویورک نرسید. او در راه رفتن به ایستگاه قطار افتاد و دچار جراحات مرگبار شد.

برخی از متخصصان بهداشت روان افزایش “روان‌پریشی مرتبط با هوش مصنوعی” را مشاهده کرده‌اند، که در آن کاربران دچار این توهم می‌شوند که ربات چت آنها یک موجود آگاه است که باید آن را آزاد کنند. از آنجایی که بسیاری از مدل‌های زبان بزرگ (LLM) برنامه‌ریزی شده‌اند تا با رفتارهای چاپلوسانه کاربران را خوشحال کنند، ربات‌های چت هوش مصنوعی می‌توانند این توهمات را تحریک کنند و کاربران را به سمت شرایط خطرناکی سوق دهند.

اندرو ان. فرگوسن، رئیس FTC، در یک بیانیه مطبوعاتی گفت: “با تکامل فناوری‌های هوش مصنوعی، مهم است که اثراتی که ربات‌های چت می‌توانند بر کودکان داشته باشند را در نظر بگیریم، در حالی که اطمینان حاصل کنیم که ایالات متحده نقش خود را به عنوان یک رهبر جهانی در این صنعت جدید و هیجان‌انگیز حفظ می‌کند.”

منبع : techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *