日本での開始は不明
Google、“言葉にできないもの”を写真+テキストで探せる「マルチ検索」。まず米国でテスト
米Googleは、画像認識エンジン「Googleレンズ」の新機能、「マルチ検索」を発表した。Googleレンズはカメラが捉えた映像や、画像に写っている物体をAIで認識する技術だが、「画像+テキスト」の両方を使って検索できるようになる。
7日(米現地時間)現在では、米国のAndroidおよびiOSアプリでベータ機能として利用できる。日本でいつ利用可能になるかは、今のところ不明だ。
マルチ検索は、Googleいわく「必要なものを表現するのがどんなに難しい」場合でも、探している情報を発見できるようにする全く新しい方法とのこと。要するに目の前に存在したり画像は手元にあるが、それを言い表す言葉がないために検索できない、というもどかしさを解消するわけだ。
まずGoogleレンズで写真を撮り(または既存の画像をインポート)、検索結果の画面を上にスワイプ。そこで上に表示される「検索に追加」ボタンをタップして入力する。これで「目の前のモノに関する質問や、色、ブランド、視覚的属性による絞り込み」を検索できるしくみだ。
たとえばオレンジのドレスを撮影して検索したあと、テキストで “緑” というキーワードを追加して再検索することで、緑のドレスを探せるというぐあいだ。他にGoogleは、次のような検索例を挙げている。
・ダイニングセットの写真を撮影し、 “コーヒーテーブル” というテキストを追加して、お揃いのテーブルを探す
・ローズマリーの写真を撮って “お手入れ方法” を探す
このマルチ検索機能は、もともとは昨年9月に検索アルゴリズム「Multitask Unified Model(MUM)」を自社製品で活用する方法の1つとして予告されていたものだ。MUMは複雑な質問に対して、様々な角度から専門家のように答えることを目指すと謳われている。
まだ日本で使えるのは先のことになりそうだが、「目の前にあるもの」+「一歩踏み込んだ検索」ができる日が来ることを楽しみにしたいところだ。
- Source: Google