شرکتهای هوشمصنوعی در حال جمعآوری اطلاعات شخصی کاربران برای آموزش سیستمهای خود هستند و در این اقدام توجهی به رضایت کاربران نمیشود.
رقابت برای ساخت جدیدترین، بهترین و پیشرفتهترین فناوری هوشمصنوعی، صنعت فناوری که به طور طبیعی به دادهها نیاز دارد را به شدت حریص کرده است.
شرکتهایی که بهدنبال توسعه موتورهای جستجوی مبتنی بر هوشمصنوعی، نویسندگان ایمیل هوشمند یا چتباتها هستند، در حال جمعآوری پستها و دادههای شخصی شما و استفاده از آنها برای آموزش این سیستمها هستند که به مقادیر فزایندهای از متن و تصاویر نیاز دارند.
حتی اگر به آنها اجازه استفاده از دادههایتان برای آموزش هوشمصنوعی را ندادهاید، برخی از شرکتها بهطور پیشفرض شما را انتخاب کردهاند.
فهمیدن این که چگونه میتوان از جمعآوری دادههای شما برای آموزش هوشمصنوعی آنها جلوگیری کرد، چندان شهودی نیست.
بیش از ۳۰۰ هزار کاربر اینستاگرام در روزهای گذشته پیامی را منتشر و اعلام کردهاند که به متا اجازه نمیدهند از هیچیک از اطلاعات شخصیشان برای تقویت و آموزش هوشمصنوعی استفاده کند.
البته یک پست ساده در اینستاگرام هیچ تأثیری در جلوگیری از استفاده متا از دادههای شما به این شکل نخواهد داشت.
تنظیمات پیشفرض برای پذیرش، یک مشکل در سطح صنعت است. گزارش جدید کمیسیون تجارت فدرال آمریکا (FTC) درباره شیوههای دادهای ۹ شبکه اجتماعی از جمله واتساپ، فیسبوک، یوتیوب و آمازون نشان داد که تقریباً همه آنها اطلاعات شخصی کاربران را به سیستمهای خودکار منتقل میکنند بدون اینکه راهی جامع یا شفاف برای انصراف کاربران وجود داشته باشد.
در گزارش FTC آمده است: کمبود دسترسی، انتخاب، کنترل، شفافیت، توضیحپذیری و قابلیت تفسیر در ارتباط با استفاده شرکتها از سیستمهای خودکار وجود داشت.
در بیشتر موارد، میتوانید انصراف دهید. اگر از سایتها و برنامههای شرکتهای فناوری استفاده میکنید، احتمالا همچنان دادههای شما را جمعآوری میکنند، اما میتوانید از وارد شدن آن به دستگاههای اتوماسیون آنها جلوگیری کنید.
برای اینکه این کار را برای شما آسانتر کنیم، فرآیند دشواری را طی کردهایم تا بفهمیم چگونه میتوانید دادههای خود را از دستگاه هوشمصنوعی در سکوهای اصلی بیرون بکشید تا مجبور نباشید در تنظیمات بیپایان و متنهای طولانی غرق شوید و خودتان آن را پیدا کنید.
در حالی که برخی از فرآیندهای انصراف ساده بودند، اما برخی دیگر بسیار پیچیدهتر بودند. تا کنون، متا سختترین سکو برای یافتن راههایی برای محافظت از دادههایمان بوده است.
به گفته برنا برخی از سایتهای دیگر هیچ راهی برای انصراف ارائه ندادند. به عنوان مثال، هیچ تنظیمات قابل مشاهدهای در یوتیوب یا ردیت وجود ندارد که به ما اجازه دهد از پستها و محتوای خود در برابر استفاده برای آموزش هوشمصنوعی شرکتها یا مدلهای دیگر شرکتها بهدلیل ماهیت عمومی آن سکوها محافظت کنیم.
نکته دیگری که باید به خاطر بسپارید این است که حتی اگر به مدلهای هوشمصنوعی اجازه ندهید که اطلاعات شخصی یا پستهای شما را برای آموزش استفاده کنند، هر چتبات هوشمصنوعی احتمالا درخواستهایی را که شما به آن دادهاید به مجموعه دادههای آموزشی خود اضافه میکند.
کد خبر ۲۰۲۰۳۰۷۰۹.۴۷۶