جست‌وجوی زنده با دوربین: وقتی گوگل «می‌بیند» و پاسخ می‌دهد

جست‌وجوی زنده با دوربین: وقتی گوگل «می‌بیند» و پاسخ می‌دهد
فهرست مطالب

گوگل در کنفرانس توسعه‌دهندگان I/O 2025 اعلام کرد که قابلیت هوش مصنوعی “جست‌وجوی زنده” (Live Search) به‌زودی به Google Search و اپلیکیشن Gemini در iOS اضافه می‌شود؛ قابلیتی که پیش‌تر تنها در گوشی‌های اندرویدی در دسترس بود.

این ویژگی که نخستین‌بار در پروژه آزمایشی Astra معرفی شد، به کاربر اجازه می‌دهد دوربین گوشی را به سمت هر چیزی بگیرد و درباره‌اش از هوش مصنوعی سوال کند—از مواد داخل یخچال گرفته تا علائم خیابانی یا اطلاعات درباره یک مکان خاص. کافی‌ست آیکون «Live» را بزنید تا گوگل بتواند تصویر زنده شما را ببیند و پاسخ دهد.

حالا این قابلیت به‌صورت مستقیم وارد حالت جدید «AI Mode» در سرچ گوگل شده و قرار است در تابستان امسال ابتدا برای کاربران آزمایشی Labs در دسترس باشد.

همچنین نسخه iOS اپلیکیشن Gemini هم به‌روزرسانی شده و کاربران می‌توانند نه‌فقط از دوربین، بلکه از محتوای روی صفحه‌شان هم سوال بپرسند—بدون نیاز به اشتراک پولی! این تصمیم در حالی گرفته شده که گوگل در ابتدا قصد داشت این قابلیت را به نسخه پریمیوم محدود کند.

با ورود Live Search، جست‌وجو دیگر فقط تایپ‌کردن نیست، بلکه دیدن، نشان‌دادن و پرسیدن است. گوگل می‌خواهد موتور جست‌وجوی آینده، بیشتر شبیه یک همراه تصویری هوشمند باشد تا یک جعبه متن ساده.

کد خبر ۲۱۳۰۴۰۳۰۳.۵۷۹

منبع: ورج

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *