何かのトピックを調べようとして Web ブラウザを開いたのに、適切な言葉が見つからずに困ったことはありませんか? 探している情報については大体わかっているのですが、Google が理解できるような説明的な言葉で表現することができません。
あるいは、障害や健康上の問題により従来の検索オプションを使用するのが難しい高齢の親や祖父母が家にいますか? もしそうなら、Google からお知らせがあります。
今年の I/O 開発者会議で、Google は Google 検索に導入される多数の AI 関連機能とアップデートを発表しました。その中には、動画を使用してオンラインで情報を検索する新しい方法である「Ask With Video」がありました。この新機能は、Google 検索の使用方法に革命をもたらす可能性があり、アクセシビリティの面で大きな改善が期待されます。「Ask With Video」について詳しく見ていきましょう。
Google の「Ask With Video」とは何ですか?
Ask With Video では、ユーザーはトピックに関するビデオを録画し、それについて Google に質問することができます。これは、写真内の情報を見つけるのに役立つ Google Lens を活用します。その後、Google の Gemini AI が、深い視覚理解と Google の音声モデルの助けを借りてビデオを分析し、クエリを理解してから、それに答えるすべての関連情報を見つけようとします。
Google 検索はウェブをくまなく調べ、動画、フォーラム、記事などから情報を探し、AI の概要でその情報を表示します。たとえば、故障したレコード プレーヤーの動画を再生しているときに、動画で質問機能を使用できます。これにより、AI がレコード プレーヤーのモデルを識別し、何が問題なのかを判断して、その問題について通知します。
Ask With Video を他の Gemini 機能と併用すると、より複雑な質問に対する回答が得られるため、さらに強力になります。
「動画で質問」が検索をどう変えるか
Ask With Video は、非常に役立つアクセシビリティ ツールとなり、アクセシビリティの問題を抱えるユーザーが質問に対する回答を簡単に見つけられるようになります。何かを検索するときに、Google に言葉で説明するのに苦労するかもしれません。このため、検索結果に探している回答が表示されない場合があります。
Ask With Video を使用すると、問題や質問を説明するビデオを使用するだけで、答えを検索できます。AI がビデオを分析して自動的に理解するため、問題を明確に説明できないことを心配する必要はありません。
この機能は、従来は正確な単語や説明に頼って回答を提供してきた検索エンジンの改善にも役立ちます。Ask With Video を使用すると、正確な単語やフレーズを使用してクエリを提供できない場合でも、検索エンジンは検索対象を理解できます。そのため、最新のテクノロジーを理解して使用することが困難な高齢者にとって、これらの検索エンジンはより便利なものになります。
同様に、複数の解釈が可能な視覚要素を含む検索の場合、「Ask With Video」はテキストとビデオを組み合わせることで、より関連性の高い回答を提供できます。
さらに、クエリを入力するのが難しい人は、検索エンジンに問題を入力する手間を完全に省くことができます。そのトピックに関するビデオを使用して質問するだけで済みます。
いくつかの疑問が残る
Ask With Video はオンラインで情報を検索する新しい簡単な方法を提供しますが、Google がこの機能についてまだ答えていない質問がいくつかあります。まず、クエリを入力することを好むユーザーが Ask With Video で音声を使用する代わりにクエリを入力できるかどうかはまだわかりません。
両方を実行できるようにすることで、機能の使いやすさがさらに広がり、音声ではなくテキストを使用したい場合に便利になります。
もう 1 つの疑問は、検索に既存のビデオを使用できるのか、それとも Ask With Video で使用するために Google Lens でリアルタイムにビデオを録画する必要があるのかということです。理想的には、両方を実行できれば、この機能はより便利になります。
Google の Ask With Video は、従来の検索オプションでは情報を見つけるのに苦労している何百万人もの人々にとって恩恵となるでしょう。テキストとともにビデオを使用できるようにすることで、検索エンジンがユーザーの検索内容を正しく理解し、関連性の高い結果を提供することが保証されます。
この機能がいつ利用可能になるかは不明ですが、まずは米国で Search Labs を通じて英語版がリリースされる予定です。
コメントを残す