Google レンズは、画像だけでなくビデオにも基づいて検索できるようになりました。この機能は、検索ラボまたは対応する参加者が Apple iOS および Android で利用できるようになりました。 Googleは初めて、早ければ2024年5月にもGoogleレンズにそのようなビデオ統合を行うことを示唆した。


実際、新しいビデオ サポートと音声入力を組み合わせることもできます。たとえば、魚のいる水族館を動画で録画し、魚の泳ぐ行動について口頭で質問することができます。その後、Google レンズはバックグラウンドで Gemini を使用し、AI を使用して質問を評価し、適切な回答を提供します。

Google によると、Google レンズと Gemini は基本的にビデオを一連の個別の画像として処理するため、通常のコンピューター ビジョン技術を使用できるとのことです。ただし、まだ欠けているものは次のとおりです。 B. ビデオ内の音声を認識し、それに関する質問を作成する機会。 Google は現在、これを舞台裏で実験中ですが、実際にはまだ何も実現していません。
Google レンズ: 写真について口頭で質問することもできます
将来的には、写真を使った検索時に口頭で質問できるようになります。ビデオと同様に、目的のオブジェクトにカメラを向けてシャッター ボタンを押し続けると、音声を使用して質問を開始できます。以前は、写真の撮影中ではなく、撮影後にのみ口頭情報を取得できました。

1 つの欠点: Google レンズを介したこれらの口頭での質問は、現在英語でのみ機能します。さらに、実験的な検索ラボに参加し、特に「AI の概要など」実験のためにそこに登録されていることが前提条件となります。 Googleがこの機能をすべての通常ユーザーにさらに広く配布し、追加の言語で提供できる時期はまだ不明です。

