شرکت آنتروپیک (Anthropic) در حال ایجاد تغییرات بزرگی در نحوه مدیریت داده‌های کاربران است و از تمام کاربران کلود (Claude) می‌خواهد تا تاریخ ۶ مهر تصمیم بگیرند که آیا می‌خواهند مکالمات آن‌ها برای آموزش مدل‌های هوش مصنوعی استفاده شود یا خیر. در حالی که این شرکت ما را به پست وبلاگ خود در مورد تغییرات سیاست‌ها ارجاع داد، ما نظریه‌های خود را در این باره شکل داده‌ایم.

اما اول، چه چیزی در حال تغییر است: قبلاً، آنتروپیک از داده‌های چت مصرف‌کنندگان برای آموزش مدل استفاده نمی‌کرد. اکنون، این شرکت می‌خواهد سیستم‌های هوش مصنوعی خود را بر اساس مکالمات کاربران و جلسات کدنویسی آموزش دهد و گفته است که مدت نگهداری داده‌ها را برای کسانی که انصراف ندهند، به پنج سال افزایش می‌دهد.

این یک به‌روزرسانی بزرگ است. قبلاً، به کاربران محصولات مصرفی آنتروپیک گفته شده بود که اعلان‌ها و خروجی‌های مکالمه آن‌ها به طور خودکار از قسمت پشتیبان آنتروپیک ظرف ۳۰ روز حذف می‌شوند “مگر اینکه از نظر قانونی یا سیاستی لازم باشد که برای مدت طولانی‌تری نگهداری شوند” یا ورودی آن‌ها به عنوان نقض سیاست‌های آن علامت‌گذاری شود، در این صورت ورودی‌ها و خروجی‌های کاربر ممکن است تا دو سال نگهداری شوند.

منظور از مصرف‌کننده، این است که سیاست‌های جدید برای کاربران کلود رایگان، پرو و مکس، از جمله کسانی که از کلود کد استفاده می‌کنند، اعمال می‌شود. مشتریان تجاری که از کلود گاو، کلود برای کار، کلود برای آموزش یا دسترسی به API استفاده می‌کنند، تحت تأثیر قرار نخواهند گرفت، همانطور که OpenAI به طور مشابه از مشتریان سازمانی در برابر سیاست‌های آموزش داده محافظت می‌کند.

پس چرا این اتفاق می‌افتد؟ آنتروپیک در آن پست درباره به‌روزرسانی، تغییرات را حول محور انتخاب کاربر بیان می‌کند و می‌گوید با عدم انصراف، کاربران “به ما کمک می‌کنند ایمنی مدل را بهبود بخشیم، سیستم‌های خود را برای شناسایی محتوای مضر دقیق‌تر کنیم و احتمال علامت‌گذاری مکالمات بی‌ضرر را کاهش دهیم.” کاربران “همچنین به مدل‌های کلود آینده کمک می‌کنند تا مهارت‌هایی مانند کدنویسی، تجزیه و تحلیل و استدلال را بهبود بخشند و در نهایت منجر به مدل‌های بهتری برای همه کاربران شوند.”

به طور خلاصه، به ما کمک کنید به شما کمک کنیم. اما تمام حقیقت احتمالاً کمی کمتر فداکارانه است.

مانند هر شرکت بزرگ مدل زبانی دیگر، آنتروپیک به داده‌ها بیشتر از احساسات خوب مردم نسبت به برند خود نیاز دارد. آموزش مدل‌های هوش مصنوعی به مقادیر زیادی داده مکالمه با کیفیت بالا نیاز دارد و دسترسی به میلیون‌ها تعامل کلود باید دقیقاً همان نوع محتوای دنیای واقعی را ارائه دهد که می‌تواند موقعیت رقابتی آنتروپیک را در برابر رقبایی مانند OpenAI و گوگل بهبود بخشد.

فراتر از فشارهای رقابتی توسعه هوش مصنوعی، به نظر می‌رسد این تغییرات منعکس کننده تغییرات گسترده‌تر صنعت در سیاست‌های داده نیز باشد، زیرا شرکت‌هایی مانند آنتروپیک و OpenAI با بررسی فزاینده‌ای بر روی شیوه‌های نگهداری داده‌های خود مواجه هستند. به عنوان مثال، OpenAI در حال حاضر در حال مبارزه با دستور دادگاهی است که این شرکت را مجبور می‌کند تمام مکالمات مصرف‌کننده ChatGPT را به طور نامحدود، از جمله چت‌های حذف شده، به دلیل شکایت نیویورک تایمز و سایر ناشران حفظ کند.

در خرداد ماه، برد لایتکپ، مدیر ارشد عملیات OpenAI، این را “یک درخواست گسترده و غیرضروری” خواند که “اساساً با تعهدات حفظ حریم خصوصی که به کاربران خود داده‌ایم، مغایرت دارد.” دستور دادگاه بر کاربران ChatGPT رایگان، پلاس، پرو و تیم تأثیر می‌گذارد، اگرچه مشتریان سازمانی و کسانی که توافق‌نامه‌های عدم نگهداری داده دارند، همچنان محافظت می‌شوند.

آنچه نگران کننده است این است که چقدر سردرگمی همه این سیاست‌های کاربری در حال تغییر برای کاربران ایجاد می‌کند، که بسیاری از آن‌ها از این موضوع بی‌اطلاع هستند.

منصفانه بگوییم، همه چیز اکنون به سرعت در حال حرکت است، بنابراین با تغییر فناوری، سیاست‌های حفظ حریم خصوصی نیز تغییر می‌کنند. اما بسیاری از این تغییرات کاملاً گسترده هستند و فقط به طور گذرا در میان سایر اخبار شرکت‌ها ذکر می‌شوند. (با توجه به جایی که شرکت این به‌روزرسانی را در صفحه مطبوعاتی خود قرار داده است، فکر نمی‌کنید تغییرات سیاستی روز سه‌شنبه برای کاربران آنتروپیک خبر بسیار بزرگی باشد.)

اما بسیاری از کاربران متوجه نمی‌شوند که دستورالعمل‌هایی که با آن‌ها موافقت کرده‌اند تغییر کرده است، زیرا طراحی عملاً آن را تضمین می‌کند. اکثر کاربران ChatGPT به کلیک کردن روی ضامن‌های “حذف” ادامه می‌دهند که از نظر فنی هیچ چیزی را حذف نمی‌کنند. در همین حال، اجرای سیاست جدید آنتروپیک از یک الگوی آشنا پیروی می‌کند.

چطور؟ کاربران جدید در هنگام ثبت‌نام ترجیح خود را انتخاب می‌کنند، اما کاربران موجود با یک پنجره بازشو با “به‌روزرسانی شرایط و سیاست‌های مصرف‌کننده” با متن بزرگ و یک دکمه سیاه برجسته “پذیرش” با یک ضامن بسیار کوچکتر برای مجوزهای آموزش در زیر با حروف کوچکتر مواجه می‌شوند – و به طور خودکار روی “روشن” تنظیم شده است.

همانطور که قبلاً توسط The Verge مشاهده شد، این طراحی نگرانی‌هایی را ایجاد می‌کند مبنی بر اینکه کاربران ممکن است به سرعت روی “پذیرش” کلیک کنند بدون اینکه متوجه شوند که با اشتراک‌گذاری داده‌ها موافقت می‌کنند.

در همین حال، خطرات آگاهی کاربر نمی‌تواند بالاتر باشد. کارشناسان حفظ حریم خصوصی مدتهاست هشدار داده‌اند که پیچیدگی پیرامون هوش مصنوعی، رضایت معنادار کاربر را تقریباً غیرممکن می‌کند. تحت دولت بایدن، کمیسیون تجارت فدرال (FTC) حتی وارد عمل شد و هشدار داد که شرکت‌های هوش مصنوعی در صورت “تغییر پنهانی شرایط خدمات یا سیاست حفظ حریم خصوصی خود، یا پنهان کردن افشاگری در پشت پیوندها، در زبان حقوقی یا در حروف ریز” در معرض خطر اقدامات اجرایی قرار دارند.

اینکه آیا کمیسیون – که اکنون تنها با سه نفر از پنج کمیسر خود فعالیت می‌کند – هنوز امروز به این شیوه‌ها توجه دارد یا خیر، یک سوال باز است، سوالی که مستقیماً از FTC پرسیده‌ایم.

منبع: techcrunch.com

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *