گزارشات

مشاهده آرشیو
اشتراک گذاری خبر:
1401/6/22

قوانین اتحادیه اروپا می‌تواند بر منابع باز هوش مصنوعی تأثیر منفی بگذارد

کارشناسان در مطالعه ای جدید هشدار می دهند که قوانین پیشنهادی اتحادیه اروپا می تواند نوع تحقیقاتی را که ابزارهای پیشرفته هوش مصنوعی مانند GPT-3 تولید می کند، محدود کند.
اندیشکده غیرحزبی بروکینگز این هفته مقاله ای را منتشر کرد که در آن مقررات اتحادیه در زمینه هوش مصنوعی منبع باز را محکوم کرد و استدلال کرد که این امر مسئولیت قانونی را برای سیستم های هوش مصنوعی همه منظوره ایجاد می کند و به طور همزمان توسعه آنها را تضعیف می کند. بر اساس پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا، توسعه‌دهندگان منبع باز باید دستورالعمل‌های مربوط به مدیریت ریسک، حاکمیت داده‌ها، اسناد فنی و شفافیت، و همچنین استانداردهای دقت و امنیت سایبری را رعایت کنند.
به گفته نویسنده، اگر شرکتی بخواهد یک سیستم هوش مصنوعی منبع باز را که منجر به نتایج فاجعه‌باری می‌شود، مستقر کند، غیرقابل تصور نیست که شرکت بتواند با شکایت از توسعه‌دهندگان منبع باز که محصول خود را بر اساس آن ساخته‌اند، از مسئولیت منصرف شود.
الکس انگلر، تحلیلگر بروکینگز که این مقاله را منتشر کرده است، می‌گوید: «این می‌تواند قدرت را بر آینده هوش مصنوعی در شرکت‌های بزرگ فناوری متمرکز کند و از تحقیقاتی که برای درک عمومی از هوش مصنوعی حیاتی است جلوگیری کند. "در پایان، تلاش اتحادیه اروپا برای تنظیم منبع باز می تواند مجموعه پیچیده ای از الزامات را ایجاد کند که مشارکت کنندگان این منابع را به خطر می اندازد."
در سال 2021، کمیسیون اروپا متن قانون هوش مصنوعی را منتشر کرد که هدف آن ترویج استقرار "هوش مصنوعی قابل اعتماد" در اتحادیه اروپا است. موسسات به دنبال اصلاح مقرراتی هستند که سعی در ایجاد تعادل بین نوآوری و پاسخگویی دارند. اما به گفته برخی از کارشناسان، قانون AI همانطور که نوشته شده است، الزامات طاقت فرسایی را بر تلاش های باز برای توسعه سیستم های هوش مصنوعی تحمیل می کند.
انگلر خاطرنشان می‌کند، جلوگیری از ورود این پروژه‌ها به سیستم‌های تجاری، اگر نگوییم غیرممکن، دشوار خواهد بود، جایی که ممکن است توسط عوامل مخرب مورد سوء استفاده قرار گیرند.
در یک مثال اخیر، Stable Diffusion، یک سیستم AI منبع باز که تصاویر را از پیام های متنی تولید می کند، با مجوزی منتشر شد که انواع خاصی از محتوا را ممنوع می کند. اما به سرعت مخاطبانی را در جوامع پیدا کرد که از چنین ابزارهای هوش مصنوعی برای ایجاد تصاویر مستهجن از افراد مشهور استفاده می کنند.
اورن اتزیونی، مدیر عامل مؤسسه آلن معتقد است که پیش‌نویس فعلی قانون هوش مصنوعی مشکل‌ساز است. در یک مصاحبه ایمیلی با TechCrunch، اتزیونی گفت که فشارهای وارد شده توسط قوانین می‌تواند تأثیر وحشتناکی بر حوزه‌هایی مانند توسعه سیستم‌های تولید متن باز داشته باشد، که به اعتقاد او توسعه‌دهندگان را قادر می‌سازد تا به شرکت‌های فناوری بزرگ مانند گوگل و متابرسند.
اتزیونی گفت: «توسعه‌دهندگان متن‌باز نباید مانند کسانی که نرم‌افزارهای تجاری را توسعه می‌دهند، تحت فشار باشند. همیشه باید نرم‌افزار رایگان «همان‌طور که هست» ارائه شود - موردی را در نظر بگیرید که یک دانش‌آموز تنها قابلیت هوش مصنوعی را توسعه می‌دهد. آنها نمی توانند از مقررات اتحادیه اروپا پیروی کنند و ممکن است مجبور شوند نرم افزار خود را توزیع نکنند، در نتیجه تأثیری سرد بر پیشرفت تحصیلی و تکرارپذیری نتایج علمی دارند.
اتزیونی استدلال می‌کند که به جای تلاش برای تنظیم گسترده فناوری‌های هوش مصنوعی، تنظیم‌کننده‌های اتحادیه اروپا باید روی کاربردهای خاص هوش مصنوعی تمرکز کنند. او گفت: «ابهام و تغییر سریع در هوش مصنوعی بسیار زیاد است تا روند آهسته نظارتی مؤثر واقع شود». در عوض، برنامه های کاربردی هوش مصنوعی مانند وسایل نقلیه خودران، ربات ها یا اسباب بازی ها باید موضوع مقررات باشند.
همه  معتقد نیستند که قانون هوش مصنوعی نیاز به اصلاحات بیشتری دارد. مایک کوک، محقق هوش مصنوعی فکر می‌کند که تنظیم کردن هوش مصنوعی منبع باز «کمی بیشتر از نیاز» «کاملاً خوب» است. او معتقد است که تعیین هر نوع استانداردی می تواند راهی برای نشان دادن رهبری در سطح جهانی باشد - امیدواریم دیگران را تشویق به پیروی از آن کنند.
کوک گفت: «ترس در مورد «نوآوری محدود کننده» بیشتر از جانب افرادی نشأت می‌گیرد که می‌خواهند همه مقررات را کنار بگذارند و اختیار داشته باشند، و این دیدگاهی نیست که من به آن توجه زیادی داشته باشم. من فکر می کنم اشکالی ندارد که به نام جهانی بهتر قانون وضع کنید، نه اینکه نگران این باشید که آیا همسایه شما کمتر از شما مقررات قانونی را تنظیم می کند و به نوعی از آن سود می برد.
همانطور که همکار من ناتاشا لوماس قبلاً اشاره کرده است، رویکرد مبتنی بر ریسک اتحادیه اروپا چندین کاربرد ممنوعه از هوش مصنوعی (مانند امتیازدهی اعتبار اجتماعی دولتی به سبک چین) را فهرست می‌کند و در عین حال محدودیت‌هایی را بر سیستم‌های هوش مصنوعی که به عنوان «پرخطر» در نظر گرفته می‌شوند، اعمال می‌کند. اگر قرار باشد این مقررات بر خلاف دسته‌بندی محصولات، انواع محصول را هدف قرار دهد (همانطور که اتزیونی استدلال می‌کند که باید)، ممکن است به هزاران قانون نیاز داشته باشد - یکی برای هر نوع محصول - که منجر به تضاد و حتی عدم اطمینان بیشتر نظارتی شود.
تحلیلی که توسط لیلیان ادواردز، استاد حقوق در مدرسه نیوکاسل و مشاور حقوقی پاره وقت در مؤسسه آدا لاولیس نوشته شده است، این سوال را مطرح می‌کند که آیا ارائه‌دهندگان سیستم‌هایی مانند مدل‌های زبان بزرگ منبع باز (مثلاً GPT-3) ممکن است مسئول باشند یا خیر. او می‌گوید که زبان موجود در این قانون مسئولیت مدیریت استفاده‌ها و تأثیرات یک سیستم هوش مصنوعی را بر عهده توسعه‌دهندگان پایین‌دستی می‌گذارد - نه لزوماً توسعه‌دهنده اولیه.
او می‌نویسد: «روشی که توسعه‌دهندگان پایین‌دست از [AI] استفاده می‌کنند و آن را تطبیق می‌دهند، ممکن است به اندازه نحوه ساخت اولیه آن مهم باشد». «قانون هوش مصنوعی به این موضوع توجه می‌کند، اما تقریباً کافی نیست، و بنابراین نمی‌تواند به طور مناسب بسیاری از کسانی را که به روش‌های مختلف «پایین دست» در زنجیره تأمین هوش مصنوعی درگیر می‌شوند، تنظیم کند.»
در استارت‌آپ Hugging Face، مدیر عامل کلمان دلانگ، مشاور کارلوس مونوز فراندیس و کارشناس سیاست ایرنه سلیمان می‌گویند که از مقرراتی برای حفاظت از مصرف‌کننده استقبال می‌کنند، اما قانون هوش مصنوعی همانطور که پیشنهاد شده بسیار مبهم است. به عنوان مثال، آنها می گویند، مشخص نیست که آیا این قانون در مورد مدل های یادگیری ماشینی "از پیش آموزش دیده" در قلب نرم افزارهای مبتنی بر هوش مصنوعی اعمال می شود یا فقط برای خود نرم افزار.
این فقدان وضوح، همراه با عدم رعایت ابتکارات حاکم بر جامعه در حال انجام مانند مجوزهای هوش مصنوعی باز و مسئول، ممکن است مانع نوآوری بالادستی در بالای زنجیره ارزش هوش مصنوعی شود، که تمرکز بزرگی برای ما در Hugging Face است.
از منظر رقابت و نوآوری، اگر در حال حاضر بارهای بسیار سنگینی را بر روی ویژگی‌های آشکارا منتشر شده در بالای جریان نوآوری هوش مصنوعی قرار دهید، در معرض خطر مانع از نوآوری فزاینده، تمایز محصول و رقابت پویا قرار می‌گیرید، این مورد در بازارهای فناوری نوظهور مانند هوش مصنوعی هسته اصلی است. موارد مرتبط… مقررات باید پویایی نوآوری بازارهای هوش مصنوعی را در نظر بگیرد و بنابراین منابع اصلی نوآوری در این بازارها را به وضوح شناسایی و محافظت کند.
در مورد Hugging Face، این شرکت بدون در نظر گرفتن زبان نهایی قانون هوش مصنوعی از ابزارهای مدیریت هوش مصنوعی بهبود یافته دفاع می کند، مانند مجوزهای هوش مصنوعی «مسئولانه» و کارت های مدل که شامل اطلاعاتی مانند استفاده مورد نظر از یک سیستم هوش مصنوعی و نحوه عملکرد آن است. دلانگ، فراندیس و سلیمان اشاره می کنند که صدور مجوز مسئول شروع به تبدیل شدن به یک روش معمول برای انتشارات عمده هوش مصنوعی، مانند مدل زبان OPT-175 متا کرده است.
دلانگ، فراندیس و سلیمان می‌گویند: «نوآوری باز و نوآوری مسئولانه در قلمرو هوش مصنوعی اهداف متقابل منحصر به فرد نیستند، بلکه مکمل یکدیگر هستند. "تقاطع بین هر دو باید یک هدف اصلی برای تلاش های نظارتی مداوم باشد، همانطور که در حال حاضر برای جامعه هوش مصنوعی است."
با توجه به بخش‌های متحرک بسیاری که در قوانین اتحادیه اروپا دخیل هستند (بدون ذکر ذینفعانی که تحت تأثیر آن هستند)، احتمالاً سال‌ها طول می‌کشد تا مقررات هوش مصنوعی در این بلوک شکل بگیرد.

 
 
امتیاز دهی