2019年12月に、Googleの検索システムにに導入されたBERTについて、自分なりに調べたことをまとめて記録しておきます。
BERTとは?
2019年12月10日、Googleが検索システムに導入しまた仕組みで、「Bidirectional Encoder Representations from Transformers」の略称。2018年にGoogleがオープンソース化した自然言語処理技術のことです。
英語圏では、2019年10月には導入されていましたので、2ヶ月遅れて日本語検索システムでも導入されました。
と、なんとなくわかったところで、新たな疑問。自然言語処理技術?
自然言語処理とは?
自然言語処理とは、普段の日常会話で使われる人間の言葉を機械で理解する技術のこと。
人聞が話す言葉や文中に含まれる単語の意味だけではなくて、前後の文脈を読み取った上で、文章の意味を解析し解釈できるようになったのですね。
無意味な単語の羅列で検索上位に入る事も難しくなるでしょうし、プログラムが適当に作り出した無意味なサイトからの被リンクを受けたりするような事も、意味がなくなるのでしょう。
恐ろしき、技術てす。
なんでBERTを導入したのか
BERTによって、これまで機械が苦手と言われていた「文脈の読み取り」が司能となります。
BERTを導入したことによって、Google検索ではかなり高いレベルで、人間の会話に近い文章を理解することができるようになりました。
つまり、Googleは検索クエリの単純な言葉だけではなくて、検索した人の意図をこれまで以上に理解できるようになります。
BERTの導入は「過去5年間で最大の飛躍」などとも言われるほどの大きな革新でした。
BERT対策は何をすれば良いか
では、BERT対策では何をすれば良いのでしょうか。
Googleは特別な対策はないと言っていますが。検索ク工リからの結果が、より検索する人の意図に近くなるため、記事(コンテンツ)の質を高めたり、必要なタグをきちんと付けるなど、検索意図を満たせるように心掛けなければなりませんね。
よく言われるのは、検索した人の
5W1H(いつ?、どこで?、だれが?、なにを?、なぜ?、どのように?)
を意識して記事を作り、Googleが正しく理解できるようにすることがBERT対策にもなるでしょう。
さて、この記事を読んでくれた方がいたとしたら、満足していただけたのでしょうか…