GoogleがSeach Onというオンラインイベントを開催しました。
Googleから公開されたブログや動画では、AIを用いて検索を改善する仕組みや新機能について言及されています。
この記事ではそれら英語の情報を、日本語でかいつまんでまとめました。
ブログ記事
How AI is powering a more helpful Google
より関連性の高い検索結果を表示できるように
スペルミスの理解
スペルミスはおよそ1割の検索に含まれているとのことです。(※英語圏の話かもしれません。日本語であれば誤変換が多そうです。)
新たにスペルアルゴリズムを導入したことで、スペルミスの解読能力が大きく向上したとのことです。
ページに埋もれた文や節(passage)を検索結果に表示
クエリとページ全体の関連性だけでなく、ページに埋もれた文や節(passage)の関連性をより理解できるようにすることで、ウェブページ内に局所的に記載された情報を検索結果に出せるようになるとのことです。
例として、「家の窓がUVガラスかどうかを判別する方法」といったクエリに関する検索例が示されていました。
これまでのアルゴリズムでは、ガラスのUV照射実験など、ぱっと見ただけではクエリに対する答えが含まれているかどうかがぱっとわからない検索結果でした。(左)
しかし、今後はクエリにマッチした強調スニペットが出せるようになる(右)など、検索結果が改良される見込みです。
これは、ウェブページだけでなく、文や節(passage)をインデックスできるようになったことで可能になったとのことで、この改良を全世界に展開することにより、検索結果の7%を改善可能ということです。
7%というのはかなり大きい数字であると考えられます。
サブトピックの理解
サブトピックの理解を深め、より多様な検索結果を表示するようにするとのことです。
たとえば”home exercise equipment”(自宅用運動器具)というクエリでは、安いとか、省スペースといった多様性のある検索結果を、(クエリに含まれていなくても)表示するようになるということです。
この変更は今年中に行われるとのことです。
Googleマップやマイビジネス関連の改善
特にコロナ対策を意識して、以下のような改善が進められています。
・混雑具合のライブ表示
・ビジネスプロフィースにコロナ対策情報を記載(事前予約やマスク着用義務化の有無)
・会話によるビジネス情報の更新
動画の理解向上
動画の重要な瞬間(key moment)を理解・識別できるようになるとのことです。
これにより、レシピのワンステップや野球動画のホームランの瞬間などが検索結果に表示されやすくなると考えられます。
2020年中に、検索の10%でこの技術を使用するようになるとのことです。
データ理解・アクセスの向上
Data Commons Projectを通して、データ理解やアクセスが向上し、検索結果に表示できるようになるとのことです。
ただし、参加団体はアメリカやヨーロッパが中心で、日本での検索にどれほど影響があるかは不明です。
歌って検索
歌詞がわからないときには、音声検索を通して鼻歌で検索することが可能になるとのことです。
Google検索の4つの特徴
Googleが自身の検索エンジンを改善するために必要な4つの要素を挙げています。
世界中の情報を理解する
ウェブページの文字情報、画像、動画だけでなく、周りの物や場所に関する情報も理解する必要があります。
高品質な検索
コロナや自然災害などで高品質な結果に対する需要が高まる中、Googleは自然言語理解と検索結果評価によって品質を担保しているとのことです。
自然言語理解については、昨年BERTが展開されています。
当初は英語のクエリの10%に影響を及ぼしましたが、現在ではほとんどすべての英語の検索にBERTが使われているとのことです。
セキュリティとプライバシー
セーフブラウジングやスパム防御により、マルウェアや悪意のあるサイトから守られています。
Googleは毎日2500万ものスパムページを発見しているとのことです。
オープンアクセス
Googleは開かれたウェブをより反映させるため、より多くのトラフィックを送る、とのことです。
Googleは無料でどのデバイスからでもアクセスでき、150以上の言語で公開されています。
まとめ
すでにGoogle検索とAIは切っても切り離せない関係となっており、文や動画などコンテンツ理解が急速に進んでいます。
今回言及された更新予定については特に注目してチェックしておきましょう。