تحقیق مشترک گوگل و دانشگاه اوساکا نشان میدهد که هوش مصنوعی قادر است با بررسی فعالیتهای مغزی، قطعاتی از موسیقیای بسازد که از لحاظ سبک، ریتم، حالت و سازبندی با موسیقیای که شخص اخیرا گوش داده است، مطابقت دارد.
محققان پیشتر توانسته بودند با بررسی فعالیتهای مغز، صدای انسان، آواز پرندگان و شیهه اسب را بازسازی کنند. با این حال، مطالعات کمی برای بازسازی موسیقی از سیگنالهای مغزی انجام شده بود.
به گزارش «سیتنا» اکنون محققان به الگوریتمی مبتنی بر هوش مصنوعی با عنوان Brain۲Music دست یافتند که میتواند با تصویربرداری از مغز، قطعاتی را مشابه آهنگهایی که فرد در زمان تصویربرداری گوش میکرده است، تولید کند.
دانشمندان از تصویربرداری تشدید مغناطیسی عملکردی (fMRI) برای اسکنهای مغز استفاده کردند. آنها در این روش با ردیابی جریان خون غنی از اکسیژن مناطق فعالتر مغز را تشخیص میدهند.
در این آزمایش، اسکنها از پنج شرکتکننده در حین گوش دادن به قطعات موسیقی ۱۵ثانیهای تهیه شد. این موسیقیها از سبکهای گوناگون از جمله بلوز، کلاسیک، کانتری، دیسکو، هیپهاپ، جاز و پاپ انتخاب شده بودند.
محققان با استفاده از بخشی از دادههای تصویربرداری مغز و قطعات موسیقی، در ابتدا به یک هوش مصنوعی برای یافتن پیوندهایی بین مولفههای موسیقی، از جمله سازبندی و سبک، ریتم و حالت و سیگنالهای مغزی شرکتکنندگان آموزش دادند. محققان حالت موسیقی را با استفاده از عناوینی مانند شاد، غمگین، لطیف، هیجانانگیز، خشن یا ترسناک تعریف کردند. هوش مصنوعی برای هر فرد، بین الگوهای منحصر بهفرد فعالیت مغز آنها و عناصر مختلف موسیقی ارتباط برقرار میکرد.
براساس این گزارش، هوش مصنوعی پس از آموزش با استفاده از مجموعهای از دادهها، میتواند دادههای تصویری باقیمانده و پیشتر دیدهنشده مغز را به بیان موسیقیایی شامل عناصر موسیقی پیشتر شنیده شده تبدیل کند.
دانشمندان سپس دادههای این آزمایش را به مدل دیگر هوش مصنوعی با عنوان MusicLM که گوگل پیشتر آن را توسعه داده بود، ارائه دادند. این هوش مصنوعی قادر است با استفاده از فرمانهای توصیقی مثل «ملودی آرام ویولن همراه با ریتم گیتار» موسیقی تولید کند. این نرمافزار با استفاده از این دادهها تولید قطعات موسیقی را آغاز کرد که به قطعات نخست بسیار شبیه بودند.