HOME > ニュース > Google、“言葉にできないもの”を写真+テキストで探せる「マルチ検索」。まず米国でテスト【Gadget Gate】

日本での開始は不明

Google、“言葉にできないもの”を写真+テキストで探せる「マルチ検索」。まず米国でテスト【Gadget Gate】

公開日 2022/04/08 13:02 Kiyoshi Tane
  • Twitter
  • FaceBook
  • LINE
米Googleは、画像認識エンジン「Googleレンズ」の新機能、「マルチ検索」を発表した。Googleレンズはカメラが捉えた映像や、画像に写っている物体をAIで認識する技術だが、「画像+テキスト」の両方を使って検索できるようになる。

マルチ検索のイメージ

7日(米現地時間)現在では、米国のAndroidおよびiOSアプリでベータ機能として利用できる。日本でいつ利用可能になるかは、今のところ不明だ。

マルチ検索は、Googleいわく「必要なものを表現するのがどんなに難しい」場合でも、探している情報を発見できるようにする全く新しい方法とのこと。要するに目の前に存在したり画像は手元にあるが、それを言い表す言葉がないために検索できない、というもどかしさを解消するわけだ。

まずGoogleレンズで写真を撮り(または既存の画像をインポート)、検索結果の画面を上にスワイプ。そこで上に表示される「検索に追加」ボタンをタップして入力する。これで「目の前のモノに関する質問や、色、ブランド、視覚的属性による絞り込み」を検索できるしくみだ。

画像にテキスト情報を加えて検索

たとえばオレンジのドレスを撮影して検索したあと、テキストで “緑” というキーワードを追加して再検索することで、緑のドレスを探せるというぐあいだ。他にGoogleは、次のような検索例を挙げている。

・ダイニングセットの写真を撮影し、 “コーヒーテーブル” というテキストを追加して、お揃いのテーブルを探す
・ローズマリーの写真を撮って “お手入れ方法” を探す

このマルチ検索機能は、もともとは昨年9月に検索アルゴリズム「Multitask Unified Model(MUM)」を自社製品で活用する方法の1つとして予告されていたものだ。MUMは複雑な質問に対して、様々な角度から専門家のように答えることを目指すと謳われている。

まだ日本で使えるのは先のことになりそうだが、「目の前にあるもの」+「一歩踏み込んだ検索」ができる日が来ることを楽しみにしたいところだ。

Source: Google



※テック/ガジェット系メディア「Gadget Gate」を近日中にローンチ予定です。本稿は、そのプレバージョンの記事として掲載しています。

この記事をシェアする

  • Twitter
  • FaceBook
  • LINE

トピック

音元出版の雑誌
オーディオアクセサリー196号
季刊・オーディオアクセサリー
最新号
Vol.196
オーディオアクセサリー大全2025~2026
特別増刊
オーディオアクセサリー大全
最新号
2025~2026
プレミアムヘッドホンガイドマガジン vol.22 2024冬
別冊・プレミアムヘッドホンガイドマガジン
最新号
Vol.22
プレミアムヘッドホンガイド Vol.32 2024 AUTUMN
プレミアムヘッドホンガイド
(フリーマガジン)
最新号
Vol.32(電子版)
VGP受賞製品お買い物ガイド 2025年冬版
VGP受賞製品お買い物ガイド
(フリーマガジン)
最新号
2025年冬版(電子版)
DGPイメージングアワード2024受賞製品お買い物ガイド(2024年冬版)
DGPイメージングアワード受賞製品お買い物ガイド
(フリーマガジン)
最新号
2024年冬版(電子版)
WEB
  • PHILE WEB
  • PHILE WEB AUDIO
  • PHILE WEB BUSINESS
  • ホームシアターCHANNEL
  • デジカメCHANNEL
AWARD
  • VGP
  • DGPイメージングアワード
  • DGPモバイルアワード
  • AEX
  • AA AWARD
  • ANALOG GPX

本ページからアフィリエイトプログラムによる収益を得ることがあります