گوگل مدل زبانی جدیدی به نام VaultGemma معرفی کرده که با استفاده از روش «حریم خصوصی تفاضلی» (Differential Privacy) طراحی شده تا در زمان آموزش، از افشای دادههای فردی جلوگیری کند. این مدل بخشی از خانواده Gemma است و بهطور ویژه برای پژوهشگران و توسعهدهندگانی عرضه شده که به دنبال ساخت سیستمهای هوش مصنوعی امن و حفظکننده حریم خصوصی هستند.
بر اساس اعلام گوگل، VaultGemma میتواند بدون به خاطر سپردن جزئیات حساس، روی دادههای محرمانه مانند اطلاعات پزشکی یا مالی آموزش ببیند. این قابلیت با افزودن نویز آماری به دادههای آموزشی و استفاده از تکنیکهای بهینهسازی ویژه به دست آمده است.
مدل جدید با یک میلیارد پارامتر عرضه شده تا امکان اجرای آن روی سختافزارهای سادهتر، از جمله سرویسهای ابری معمولی و حتی برخی دستگاههای محلی فراهم باشد. همچنین، گوگل کدها، ابزارهای ارزیابی و اسناد لازم را در اختیار عموم قرار داده تا جامعه پژوهشی بتواند بهراحتی مدلهای مشابه را آزمایش و توسعه دهد.
کارشناسان میگویند مدلهایی مانند VaultGemma میتوانند مسیر استفاده امن از دادههای حساس در حوزههایی چون بهداشت و درمان، امور مالی و دولتها را هموار کنند؛ هرچند این نسخه بهطور مستقیم برای استفاده تجاری طراحی نشده و بیشتر به عنوان یک سکوی آزمایشی عمل میکند.
کد خبر ۲۰۲۰۴۰۶۲۵.۰۳۴
منبع: هلپ نست