قوانین اتحادیه اروپا میتواند بر منابع باز هوش مصنوعی تأثیر منفی بگذارد

کارشناسان در مطالعه ای جدید هشدار می دهند که قوانین پیشنهادی اتحادیه اروپا می تواند نوع تحقیقاتی را که ابزارهای پیشرفته هوش مصنوعی مانند GPT-3 تولید می کند، محدود کند.
اندیشکده غیرحزبی بروکینگز این هفته مقاله ای را منتشر کرد که در آن مقررات اتحادیه در زمینه هوش مصنوعی منبع باز را محکوم کرد و استدلال کرد که این امر مسئولیت قانونی را برای سیستم های هوش مصنوعی همه منظوره ایجاد می کند و به طور همزمان توسعه آنها را تضعیف می کند. بر اساس پیشنویس قانون هوش مصنوعی اتحادیه اروپا، توسعهدهندگان منبع باز باید دستورالعملهای مربوط به مدیریت ریسک، حاکمیت دادهها، اسناد فنی و شفافیت، و همچنین استانداردهای دقت و امنیت سایبری را رعایت کنند.
به گفته نویسنده، اگر شرکتی بخواهد یک سیستم هوش مصنوعی منبع باز را که منجر به نتایج فاجعهباری میشود، مستقر کند، غیرقابل تصور نیست که شرکت بتواند با شکایت از توسعهدهندگان منبع باز که محصول خود را بر اساس آن ساختهاند، از مسئولیت منصرف شود.
الکس انگلر، تحلیلگر بروکینگز که این مقاله را منتشر کرده است، میگوید: «این میتواند قدرت را بر آینده هوش مصنوعی در شرکتهای بزرگ فناوری متمرکز کند و از تحقیقاتی که برای درک عمومی از هوش مصنوعی حیاتی است جلوگیری کند. "در پایان، تلاش اتحادیه اروپا برای تنظیم منبع باز می تواند مجموعه پیچیده ای از الزامات را ایجاد کند که مشارکت کنندگان این منابع را به خطر می اندازد."
در سال 2021، کمیسیون اروپا متن قانون هوش مصنوعی را منتشر کرد که هدف آن ترویج استقرار "هوش مصنوعی قابل اعتماد" در اتحادیه اروپا است. موسسات به دنبال اصلاح مقرراتی هستند که سعی در ایجاد تعادل بین نوآوری و پاسخگویی دارند. اما به گفته برخی از کارشناسان، قانون AI همانطور که نوشته شده است، الزامات طاقت فرسایی را بر تلاش های باز برای توسعه سیستم های هوش مصنوعی تحمیل می کند.
انگلر خاطرنشان میکند، جلوگیری از ورود این پروژهها به سیستمهای تجاری، اگر نگوییم غیرممکن، دشوار خواهد بود، جایی که ممکن است توسط عوامل مخرب مورد سوء استفاده قرار گیرند.
در یک مثال اخیر، Stable Diffusion، یک سیستم AI منبع باز که تصاویر را از پیام های متنی تولید می کند، با مجوزی منتشر شد که انواع خاصی از محتوا را ممنوع می کند. اما به سرعت مخاطبانی را در جوامع پیدا کرد که از چنین ابزارهای هوش مصنوعی برای ایجاد تصاویر مستهجن از افراد مشهور استفاده می کنند.
اورن اتزیونی، مدیر عامل مؤسسه آلن معتقد است که پیشنویس فعلی قانون هوش مصنوعی مشکلساز است. در یک مصاحبه ایمیلی با TechCrunch، اتزیونی گفت که فشارهای وارد شده توسط قوانین میتواند تأثیر وحشتناکی بر حوزههایی مانند توسعه سیستمهای تولید متن باز داشته باشد، که به اعتقاد او توسعهدهندگان را قادر میسازد تا به شرکتهای فناوری بزرگ مانند گوگل و متابرسند.
اتزیونی گفت: «توسعهدهندگان متنباز نباید مانند کسانی که نرمافزارهای تجاری را توسعه میدهند، تحت فشار باشند. همیشه باید نرمافزار رایگان «همانطور که هست» ارائه شود - موردی را در نظر بگیرید که یک دانشآموز تنها قابلیت هوش مصنوعی را توسعه میدهد. آنها نمی توانند از مقررات اتحادیه اروپا پیروی کنند و ممکن است مجبور شوند نرم افزار خود را توزیع نکنند، در نتیجه تأثیری سرد بر پیشرفت تحصیلی و تکرارپذیری نتایج علمی دارند.
اتزیونی استدلال میکند که به جای تلاش برای تنظیم گسترده فناوریهای هوش مصنوعی، تنظیمکنندههای اتحادیه اروپا باید روی کاربردهای خاص هوش مصنوعی تمرکز کنند. او گفت: «ابهام و تغییر سریع در هوش مصنوعی بسیار زیاد است تا روند آهسته نظارتی مؤثر واقع شود». در عوض، برنامه های کاربردی هوش مصنوعی مانند وسایل نقلیه خودران، ربات ها یا اسباب بازی ها باید موضوع مقررات باشند.
همه معتقد نیستند که قانون هوش مصنوعی نیاز به اصلاحات بیشتری دارد. مایک کوک، محقق هوش مصنوعی فکر میکند که تنظیم کردن هوش مصنوعی منبع باز «کمی بیشتر از نیاز» «کاملاً خوب» است. او معتقد است که تعیین هر نوع استانداردی می تواند راهی برای نشان دادن رهبری در سطح جهانی باشد - امیدواریم دیگران را تشویق به پیروی از آن کنند.
کوک گفت: «ترس در مورد «نوآوری محدود کننده» بیشتر از جانب افرادی نشأت میگیرد که میخواهند همه مقررات را کنار بگذارند و اختیار داشته باشند، و این دیدگاهی نیست که من به آن توجه زیادی داشته باشم. من فکر می کنم اشکالی ندارد که به نام جهانی بهتر قانون وضع کنید، نه اینکه نگران این باشید که آیا همسایه شما کمتر از شما مقررات قانونی را تنظیم می کند و به نوعی از آن سود می برد.
همانطور که همکار من ناتاشا لوماس قبلاً اشاره کرده است، رویکرد مبتنی بر ریسک اتحادیه اروپا چندین کاربرد ممنوعه از هوش مصنوعی (مانند امتیازدهی اعتبار اجتماعی دولتی به سبک چین) را فهرست میکند و در عین حال محدودیتهایی را بر سیستمهای هوش مصنوعی که به عنوان «پرخطر» در نظر گرفته میشوند، اعمال میکند. اگر قرار باشد این مقررات بر خلاف دستهبندی محصولات، انواع محصول را هدف قرار دهد (همانطور که اتزیونی استدلال میکند که باید)، ممکن است به هزاران قانون نیاز داشته باشد - یکی برای هر نوع محصول - که منجر به تضاد و حتی عدم اطمینان بیشتر نظارتی شود.
تحلیلی که توسط لیلیان ادواردز، استاد حقوق در مدرسه نیوکاسل و مشاور حقوقی پاره وقت در مؤسسه آدا لاولیس نوشته شده است، این سوال را مطرح میکند که آیا ارائهدهندگان سیستمهایی مانند مدلهای زبان بزرگ منبع باز (مثلاً GPT-3) ممکن است مسئول باشند یا خیر. او میگوید که زبان موجود در این قانون مسئولیت مدیریت استفادهها و تأثیرات یک سیستم هوش مصنوعی را بر عهده توسعهدهندگان پاییندستی میگذارد - نه لزوماً توسعهدهنده اولیه.
او مینویسد: «روشی که توسعهدهندگان پاییندست از [AI] استفاده میکنند و آن را تطبیق میدهند، ممکن است به اندازه نحوه ساخت اولیه آن مهم باشد». «قانون هوش مصنوعی به این موضوع توجه میکند، اما تقریباً کافی نیست، و بنابراین نمیتواند به طور مناسب بسیاری از کسانی را که به روشهای مختلف «پایین دست» در زنجیره تأمین هوش مصنوعی درگیر میشوند، تنظیم کند.»
در استارتآپ Hugging Face، مدیر عامل کلمان دلانگ، مشاور کارلوس مونوز فراندیس و کارشناس سیاست ایرنه سلیمان میگویند که از مقرراتی برای حفاظت از مصرفکننده استقبال میکنند، اما قانون هوش مصنوعی همانطور که پیشنهاد شده بسیار مبهم است. به عنوان مثال، آنها می گویند، مشخص نیست که آیا این قانون در مورد مدل های یادگیری ماشینی "از پیش آموزش دیده" در قلب نرم افزارهای مبتنی بر هوش مصنوعی اعمال می شود یا فقط برای خود نرم افزار.
این فقدان وضوح، همراه با عدم رعایت ابتکارات حاکم بر جامعه در حال انجام مانند مجوزهای هوش مصنوعی باز و مسئول، ممکن است مانع نوآوری بالادستی در بالای زنجیره ارزش هوش مصنوعی شود، که تمرکز بزرگی برای ما در Hugging Face است.
از منظر رقابت و نوآوری، اگر در حال حاضر بارهای بسیار سنگینی را بر روی ویژگیهای آشکارا منتشر شده در بالای جریان نوآوری هوش مصنوعی قرار دهید، در معرض خطر مانع از نوآوری فزاینده، تمایز محصول و رقابت پویا قرار میگیرید، این مورد در بازارهای فناوری نوظهور مانند هوش مصنوعی هسته اصلی است. موارد مرتبط… مقررات باید پویایی نوآوری بازارهای هوش مصنوعی را در نظر بگیرد و بنابراین منابع اصلی نوآوری در این بازارها را به وضوح شناسایی و محافظت کند.
در مورد Hugging Face، این شرکت بدون در نظر گرفتن زبان نهایی قانون هوش مصنوعی از ابزارهای مدیریت هوش مصنوعی بهبود یافته دفاع می کند، مانند مجوزهای هوش مصنوعی «مسئولانه» و کارت های مدل که شامل اطلاعاتی مانند استفاده مورد نظر از یک سیستم هوش مصنوعی و نحوه عملکرد آن است. دلانگ، فراندیس و سلیمان اشاره می کنند که صدور مجوز مسئول شروع به تبدیل شدن به یک روش معمول برای انتشارات عمده هوش مصنوعی، مانند مدل زبان OPT-175 متا کرده است.
دلانگ، فراندیس و سلیمان میگویند: «نوآوری باز و نوآوری مسئولانه در قلمرو هوش مصنوعی اهداف متقابل منحصر به فرد نیستند، بلکه مکمل یکدیگر هستند. "تقاطع بین هر دو باید یک هدف اصلی برای تلاش های نظارتی مداوم باشد، همانطور که در حال حاضر برای جامعه هوش مصنوعی است."
با توجه به بخشهای متحرک بسیاری که در قوانین اتحادیه اروپا دخیل هستند (بدون ذکر ذینفعانی که تحت تأثیر آن هستند)، احتمالاً سالها طول میکشد تا مقررات هوش مصنوعی در این بلوک شکل بگیرد.