BERTとはGoogleの自然言語技術のこと|このモデルの仕組みや導入された背景を解説

BERT

「GoogleのBERTってなんだろう」

「自然言語処理ってどんなことに活用できるのかな」

「今後のコンテンツづくりにBERTは影響するのかな」

もしもあなたが文章から情報を抽出し、ビジネスに活用したいのならばGoogleが開発したBERTの利用がおすすめです。

後述しますが、BERTはこれまで難しいとされていた文脈理解がおこなえ、より多くの情報を文章から得られる技術モデルです。

BERTを利用すると文書管理が楽になるだけでなく、業務の効率化も図れますよ。

それにあわせてBERTを考慮したSEO対策やコンテンツづくりについて知りたい方にも具体的な対処法をお伝えしてあります。

BERTの特徴を知って自分のビジネスやコンテンツづくりに役立てたい方はぜひこの記事をチェックしてみてくださいね。

Webライター募集
法人化・事業拡大に伴いWebライター積極採用中
錦橋慶叡
編集した人
錦橋慶叡

SEOライター兼コンテンツディレクター。編集プロダクションでの勤務を経て独立→法人化。現在は事業拡大に伴い、TwitterにてWebライターを積極採用中。これまでに累計400人以上ものWebライターを指導。「文章でメシを食っていきたい!」と考えている人を最短最速でレベルアップさせるのが使命であり生きがい。

錦橋慶叡をフォローする

BERTとはGoogleの自然言語処理技術のこと

BERTとは何か詳しく説明していきます。

  1. BERTとはGoogleが開発した自然言語処理技術
  2. 開発の背景

BERTとはGoogleが開発した自然言語処理技術

BERTとは、『Bidirectional Encoder Representations from Transformers』の頭文字をとったものでGoogleが2018年10月に発表した自然言語処理技術のことです。

後述しますがBERT最大の強みは『文脈理解度が非常に高い』という点です。

BERTが導入されることで従来モデルと比べると、はるかにユーザーの検索意図にあった結果の表示が可能になりました。

さらに企業もBERTを業務の効率化に役立てようと導入を進めており、今後ますます広がる技術だといわれています。

導入企業の実例についても後述で詳しくご紹介していますので、ご覧ください。

開発の背景

BERTが開発された背景には、大きくわけて2つの時代的変化が影響しています。

  • 音声検索の広がり
  • 検索クエリの複雑化

順番にみていきましょう。

音声検索の広がり

1つめの変化は、音声での検索や機器の操作をおこなう機会が増えたことです。

近年Amazon社のAlexa(アレクサ)やGoogle社のGoogleアシスタントのような音声操作機器が少しずつ一般家庭にも普及していますよね。

さらにスマートフォンでも入力検索ではなく、音声検索を使用するほうが時間の短縮になるため利用する方が増えています。

実際に2016年にはGoogleのCEOであるサンダー・ピチャイ氏が次のように述べています。

20% of Google (mobile) queries are now voice queries, says

Twitter|Jeff Jarvis(最終閲覧日2021年7月21日)

(Google:日本語訳)
Googleモバイル検索クエリのうち20%が今では音声検索になっている

その後正式にGoogleからの発表はありませんが、2016年時点で20%ということは現在ではさらに増加していると考えられますよね。

そして音声検索は文章での検索よりもくだけた表現になることが多く、より高度な検索技術が求められます。

このように増加傾向にある口語的な検索に対応するため、より複雑な言語処理をおこなえるモデルが必要になったのです。

検索クエリの複雑化

2つめの時代的変化は、ユーザーの検索クエリ(いわゆる検索窓に入力する質問やフレーズのこと)が複雑になっていることです。

複雑なクエリに対応し、ユーザーの検索意図にマッチしたコンテンツを表示するためにすぐれた言語処理モデルが必要になったとされています。

なぜ検索クエリが複雑になったかというと、スマートフォンの普及により検索機能が従来よりも身近な存在になったからです。

たとえば、外出しているときに知らないことや気になることがあったらすぐにスマートフォンで検索をしますよね。

今までだったらパソコンがないとわからなかったことも、スマートフォンを使えば瞬時に調べられるため検索はより身近なものになりました。

検索が身近になり利用する人が増えるほど、その悩みや疑問は多岐にわたるので検索クエリはどんどん複雑化したと考えられています。

このように複雑な検索クエリに対応するため、言語処理能力の高いBERTの開発がおこなわれました。

以上BERTの開発背景について、2つの時代的変化をご紹介しました。

なお検索クエリの詳細に関しては『検索クエリと検索キーワードの違い|それぞれの意味と意図を考えよう』で解説しています。

自然言語処理の仕組みを解説

BERTは自然言語処理モデルの1つですが、そもそも『自然言語処理』になじみがない方もいらっしゃいますよね。

自然言語処理とは『人間が入力(発した)言葉や文書をシステムに認識させ、内容の処理、抽出をおこなうこと』を指します。

自然言語処理技術があることで、大量の文章から必要なデータを瞬時に抽出できるようになります。

ココではそんな言語処理儀ずつに関する以下2点を解説しますね。

  1. 自然言語処理の仕組み
  2. 自然言語処理が活用されているもの
  3. BERTと他の自然言語処理の違い

自然言語処理の仕組み

実際に自然言語処理のシステムがどのように言葉の認識、抽出をしているのかご紹介します。

  • 単語の意味を解析する
  • 構文を解析する
  • 意味を解析する
  • 文脈を理解する

単語の意味を解析する

まず自然言語処理のシステムでおこなわれるのが文章内にある各単語の認識です。

これをおこなうことでその文章に含まれる情報を識別します。

たとえば、『今日の東京は気温が高い』という文章であれば『今日』『の』『東京』『は』『気温』『が』『高い』と分解をします。

構文を解析する

次に構文を解析し、単語どうしがどのように関係しているのかを読み取ります。

例をあげると『体が1mある虫を食べる鳥』という文章では『、』を打つ位置によって文章の意味が変わりますよね。

構文解析では、その文章内で考えられるあらゆる意味を情報としてあげていきます。

意味を解析する

構文解析であげた結果を、事前学習データを使って精査していきます。

先ほどの例では『体が1mある虫を、食べる鳥』と『体が1mある、虫を食べる鳥』と二つの可能性がありました。

しかし、1mある虫というのは常識的にありえませんのでこの文章の意味は鳥の大きさを表したものだと判断できます。

このように意味を解析して、文章の内容をさらに精査します。

文脈を理解する

最後の段階でおこなわれるのが、文章全体の流れから本当にその意味が正しいか判断する文脈理解です。

ここでは、対象の文章だけでなく複数の文にまたがって存在している意味がないかを確認しています。

いわば文脈理解は最終調整のようなものですね。

このような工程を瞬時におこなって情報として伝えてくれるのが、自然言語処理の仕組みです。

自然言語処理が活用されているもの

私たちの生活でも自然言語処理を活用しているものは多数ありますのでご紹介します。

翻訳機能

Google翻訳やWeblio翻訳のような翻訳機能は自然言語処理がおこなわれています。

元の言葉を認識して内容を変換し、別の言語に置き換えてくれているのですね。

予測変換

文章を入力する際に表示される予測変換も自然言語処理の1つです。

文字入力するだけで次の単語を想定してくれるのは、これまでのデータにもとづいて文脈を読み取ってくれているからです。

音声対話システム

AIと音声によるやり取りが可能な、音声対話システムにも自然言語処理が活用されています。

『Google アシスタント』やapple社の『Siri』はAIに向かって直接話しかけることで指示を出せますよね。

これは音声を識別し、その内容をAIが言語処理しているからです。

このように自然言語処理は私たちの生活でも身近な存在だということがわかりますよね。

Googleの言語モデルBERTの特徴を解説

BERTの特徴について下記のとおり詳しく説明していきます。

  1. BERTが注目された理由
  2. BERTのすぐれた点
  3. BERTと他の自然言語処理の違い
  4. BERTの注意点

1つずつみていきましょう。

BERTが注目された理由

そもそもBERTが世界中で注目された理由は、今までの自然言語処理技術をはるかに上回る精度で文章処理がおこなえたからです。

複数のベンチマークで高スコアを獲得

BERTは『GLUE』と『SQuAD 1.1』という二つのベンチマーク(数値評価)で高い結果を獲得しました。

・GLUE(The General Language Understanding Evaluation)の数値
最初にご紹介するのはGLUE*の実験数値です。

*GLUEとは自然言語処理の性能を示す指標であり、調べるために8部門のタスクをおこなう

この実験によると、BERTは従来の自然言語処理モデルよりもはるかに高い数値を示したとされています。(コーネル大学の実験結果を後述してあります)

さらに『SQuAD1.1*』というベンチマークでもBERTは高いスコアをマークし、人間の平均値を超える結果を残し大きな話題となりました。

*『SQuAD1.1』はスタンフォード大学による文章読解ベンチマークである。被験者に文章を読ませたうえで、関連する質問をおこない読解力を測るもの

実際にアメリカのコーネル大学ではBERTの実験結果について次のように述べています。

It obtains new state-of-the-art results on eleven natural language processing tasks, including pushing the GLUE score to 80.5% (7.7% point absolute improvement), MultiNLI accuracy to 86.7% (4.6% absolute improvement), SQuAD v1.1 question answering Test F1 to 93.2 (1.5 point absolute improvement) and SQuAD v2.0 Test F1 to 83.1 (5.1 point absolute improvement).

Cornell University|BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding((最終閲覧日2021年7月21日)

(コーネル大学:日本語訳)
これは、GLUEスコアを80.5%(7.7%ポイント明かな改善)、マルチNLI精度を86.7%(4.6%明かな改善)、SQuAD v1.1質問回答テストF1から93.2(1.5ポイント明かな改善)、SQuAD v2.0 Test F11111.13.13ポイントに押し上げるなど、11の自然言語処理タスクに関する新しい最先端の結果を得ます。

このようにBERTは自然言語処理における実験で高い数値を叩き出したため、世界中で注目されるようになりました。

BERTのすぐれた点

BERTのとくにすぐれた点は次にあげる3点です。

1.文脈理解度が高い
2.広範囲での汎用性
3.未ラベリングデータも学習可能

どのようなことか、みていきましょう。

文脈理解度が高い

まず1つめのすぐれた点は文脈を理解する力が非常に高いことです。

文脈理解度が高いと、ユーザーの検索意図をきちんと捉えられ適した検索結果を表示できます。

前述したようにBERTはTransformerという双方向型の言語処理構造を利用し、文脈理解度が飛躍的に向上しました。

実際にGoogleはBERTがどれだけ文脈理解に貢献するか下記の例文を用いて説明しています。

“2019 brazil traveler to usa need a visa.”

これは本来『アメリカ』へ旅行する『ブラジル人』がビザの有無について問う文でしたが、従来のモデルでは途中の『to』の意味をくみ取れずにいました。

その結果、検索で表示されるのは『アメリカ人』が『ブラジル』を旅行する際の情報であり、まったく真逆の内容になっていたのです。

しかしBERTを導入し同じ文を検索したところ、本来知りたかった『アメリカ』に旅行する『ブラジル人』向け情報が表示されるようになりました。

この結果に対してGoogleは公式ホームページで下記のとおり述べています。

(Google:原文)
Here’s a search for “2019 brazil traveler to usa need a visa.” The word “to” and its relationship to the other words in the query are particularly important to understanding the meaning. It’s about a Brazilian traveling to the U.S., and not the other way around. Previously, our algorithms wouldn’t understand the importance of this connection, and we returned results about U.S. citizens traveling to Brazil. With BERT, Search is able to grasp this nuance and know that the very common word “to” actually matters a lot here, and we can provide a much more relevant result for this query.

Google The Keyword|Understanding searches better than ever before(最終閲覧日2021年7月21日)

(Google:日本語訳)
ここでおこなっているのは、「2019年ブラジルのアメリカへの旅行者はビザが必要です」という検索です。
“to” という単語と、クエリ内の他の単語との関係は、その意味を理解するうえで特に重要です。
ブラジル人がアメリカに旅行することについてであり、その逆ではありません。
以前は、アルゴリズムはこの接続の重要性を理解していなかったので、ブラジルに渡航する米国市民に関する結果を返しました。
BERT を使用すると、検索はこのニュアンスを把握し、非常に一般的な単語 “to” が実際にここで重要であることを知ることができ、このクエリに対してはるかに関連性の高い結果を提供できます。

このように従来のモデルでは認識できなかった文脈をBERTは理解し、検索結果に反映できるのは驚きですよね。

広範囲での汎用性

次にご紹介するBERTのすぐれた点は、広範囲での汎用性が高いという点です。

なぜならBERTはすでに出回っている事前学習データ利用し、新たな学習ができるからです。

これは『転移学習』と呼ばれており、たとえるなら大繁盛しているレストランのレシピを借りて自分のお店を出すようなものです。

もともとできあがっているモデルを利用するので、1からモデルを組み立てるより学習時間も減り、追加で必要になるデータも少なくて済みます。

開発者であるJacob Devlin氏らによって書かれたBERT論文内*でも転移学習のイメージ図が掲載されています。*p4173上部掲載

このように、すでに完成しているモデルを使うことで幅広い分野に活用できるのが、BERTのすぐれた点です。

未ラベリングデータも学習可能

3つめにご紹介するBERTのすぐれた点は、ラベル(目印)のついていないデータでも学習が可能という点です。

これによって、ラベリングされたデータを大量に準備する必要がなくなりました。

もともと自然言語処理の分野では手間とコストが必要なことからラベル付のデータが不足しており、長年課題になっていました。

しかしBERTはその課題を克服する言語処理モデルでもあるので、大変すぐれているといえます。

以上3つのBERTが従来のモデルと比べすぐれている点をお伝えしました。

このように、自然言語処理では課題とされていたことがらをBERTは解決できることがわかりますよね。

BERTと他の自然言語処理の違い

これまでも自然言語処理は活用されていましたが、Googleの開発したBERTは他のモデルと比べてどのようにすぐれたものか解説します。

BERTの構造

他のモデルとの一番の違いはBERTの構造にあります。

BERTはTransformerと呼ばれる構造を持っていますが、このシステムが今まで一方向からしか理解できなかった文章を、多方向より把握するのを助けてくれるのです。

さらに離れた箇所にある文章からも意味をくみ取れるので、より高い精度で言語処理がおこなえるようになりました。

BERTの出現は『自然言語処理の革命』とまで言われており、衝撃の強さを物語っています。

さらに後述でBERTのすぐれた部分を詳しくお伝えしていますので、ぜひご覧くださいね。

BERTの注意点

上記のように大変優秀なBERTですが、注意点もあります。

それは学習に時間がかかること。

それに付け加えて、BERTに事前学習をさせるにはメモリ量の大きな高性能マシンが必要だともいわれています。

そのため、個人がBERTを1から利用するのはまだまだハードルが高いかもしれませんね。

この問題を解消するための方法が2つあるのでご紹介します。

BERT改良版ALBERTを利用する

Googleは2019年にBERTの軽量モデルALBERT(A Lite BERT)を発表しました。

このALBERTの特徴は従来のBERTに比べ、パラメーター(結果に影響をおよぼす外部からの値)を減らしより軽量化された点です。

さらにBERTの性能にいい影響を与えていないといわれていた機能も改良することで、構造をシンプルにしました。

それでも各ベンチマークの値は元のBERTと同様かそれ以上の結果を残しており、好意的に受け入れられています。

すでに事前学習済みのBERTを利用する

自分でBERTに事前学習をおこなうのは、前述のとおりハードルが高いですよね。

そこで、すでに事前学習がされている日本語版BERTを利用させてもらいましょう。

インターネット上で公開されているケースを2件ご紹介します。

・京都大学|黒橋・褚・村脇研究室BERT日本語Pretrainedモデル

1つめは京都大学の大学院研究室より公開されているBERTです。

日本を代表する有名大学で使用されているものということで、信頼感がありますね。

・株式会社 Laboro.AI (ラボロ エーアイ)

2つめがAIコンサルティングなどをおこなっている株式会社 Laboro.AI (ラボロ エーアイ)が公開しているBERTです。

こちらもAI事業を専門に扱っている企業が提供しているモデルなので、安心してダウンロードできますね。

BERTの注意点解消法を2つご紹介しました。

自然言語処理モデルBERTの活用事例を解説

では実際にBERTはどのように活用されているのかをご紹介いたします。

下記の事例からもBERTが非常に多岐にわたって役立つことがわかりますよ。

  1. 金融機関版BERTの開発
  2. サポートチャットボットへの導入
  3. コールセンター業務の軽減
  4. マニュアル検索へ活用

金融版BERTの開発

1つめにご紹介するのが金融分野に特化したBERTの開発と利用です。

NTTデータは2020年7月に金融特化型のBERTを開発したと発表しており、2021年度中のサービス開始を目指しています。

NTTデータが開発した『金融版BERT』は、もともと日本語学習をおこなった『NTT版BERT』に金融関係の文章を学習させたものです。

金融系資格の試験を受けさせても合格点を獲得できるほど、金融関係の文書に適した仕様になっているとのことです。

実際の想定業務についてNTTデータは次のように示しています。

・日報からの情報抽出
・稟議書の記載内容チェック
・財務情報からのリスク抽出
・FAQの回答自動引き当て
・チャットボットによる問い合わせ対応等

NTTDATA|金融業界向け自然言語処理技術の検証開始~金融版BERTモデルの開発~(最終閲覧日2021年7月20日)

これが普及すれば行員の負担軽減や業務の効率化、さらに顧客の利便性も高くなるのでより満足度の高いサービスが提供できるようになりますよね。

サポートチャットボットへの導入

2番目にご紹介するのはユーザーの質問に対してAIが回答する『チャットボット』への活用です。

これは人工知能・ビックデータ分析をおこなう株式会社ユーザーローカルが導入したシステムになっており注目されています。

BERTを導入したチャットボットの特徴は、事前に想定される質問と回答をすべて紐づけする必要がないという点です。

チャットボットを活用したくても、大量の紐づけに時間を取られるようでは本末転倒ですよね。

しかしBERTによるすぐれた文脈判断で、その問い合わせに対する対応を瞬時にユーザーへ提示できるようになったのです。

実際にこの『サポートチャットボット』を利用した企業の事例が紹介されていました。

・ECサイトの問い合わせ対応に活用
・導入3ヶ月でメール40%、電話12%削減
・簡単な質問を即時回答することで、購入機会の損失を防止
・問い合わせが減少し、社員満足度も向上

株式会社ユーザーローカル|社員・顧客からの問い合わせを削減「サポートチャットボット」(最終閲覧日2021年7月20日)

この会社では毎年母の日にあわせて電話やメールの問い合わせが激増していました。

社員もその対応に追われ、繁忙期には残業が増えてしまうのが悩みだったといいます。

そこでサポートチャットボットを導入したところ、問い合わせ件数が減り業務の効率化が図れたということです。

この例のように、今後BERTを導入したチャットボットが広がれば、簡単な問い合わせにはAIが対応してくれ、その分社員の負担が軽減されると期待されています。

コールセンター業務の軽減

3つめはコールセンターの業務にBERTを導入した三井住友ファイナンシャルグループの例です。

三井住友ファイナンスグループは2021年6月よりBERTを実装した照会応答支援システムを開始しました。

今回導入したシステムでは、従来品より20ポイントも高い正答率をマークしたうえ、学習時間も3分の1に軽減できたといいます。

今後はコールセンター要員を見直し、総コストを20%削減するつもりとしています。

マニュアル検索へ活用

最後にご紹介するのは、BERTを会社内のマニュアル検索に活用したJCBの例です。

JCBでは、業務に関する社内マニュアルのファイルが10,000個近くあり、自分が必要な情報にたどり着くまで時間がかかっていました。

そこで2019年から文書検索のシステムにBERTを用いて、業務の効率化を図ったとのことです。

これにより、従来の単語検索では表示されなかった情報にも瞬時にたどり着くことができ、業務の効率化が図れました。

さらに、『よくある質問』に対する回答の記載場所もBERTに学習させることで、検索の精度が向上したといいます。

このようにBERTを活用することで、対ユーザーだけでなく社内業務の効率化も図れるのですね。

以上BERTを用いた企業の実例を4つご紹介いたしました。

ご紹介した実例からもわかるようにBERTを活用すれば、今までよりも圧倒的に時間と手間を削減できます。

そうすれば、ユーザーと社員双方の満足度が向上するので導入するメリットは大きいですよね。

BERTに対するSEO対策を徹底解説

BERTの利用が広がるにつれ、それに対応するSEO対策が必要になるか気になる人も多いですよね。

BERTについては2019年にGoogleのジョン・ミューラー氏が下記のとおり発言しました。

there is nothing specific that needs to be done to websites to make them work better for BERT.

Google Search Central|English Google Webmaster Central office-hours from November 29, 2019(最終閲覧日2021年7月22日)

(発言の日本語訳)
BERTをより良く動作させるために、ウェブサイトが具体的に特別なことをおこなう必要は何もありません。

このとおり述べられていますが、これはコンテンツ運営者が何もしなくていいという意味ではありません。

むしろジョン氏は「対BERTに注力するのではなく基本的なコンテンツづくりをあらためて大切にしろ」と言っていると読み替えられます。

では『基本的なコンテンツづくりを大切にする』とはどのようなものか、下記の4点をご紹介いたします。

今後のコンテンツづくりの参考にしてくださいね。

  • 理解しやすい文章
  • ユーザーの検索意図をみたすコンテンツづくり
  • ユーザーファーストの徹底
  • 独自のコンテンツづくり

理解しやすい文章

1つめはBERTが理解しやすい文章を書くということです。

なぜなら、読みやすくBERTが理解しやすい文章であればユーザーの検索クエリと結び付けやすく上位表示してもらいやすくなるからです。

たとえば、私たちがWebサイトを人におすすめしようと思ったら文章が簡潔で主張が理解しやすいものを選びますよね。

何がいいたいかわからないWebサイトを人に紹介したら、「なんでこんなサイト進めてきたんだろう」と不信感を持たれてしまいますよね。

BERTも同じで、よりわかりやすくいい文章が記載されているサイトをユーザーにおすすめしたくなります。

そのためより理解しやすい文章を載せることで、BERTに選ばれやすくなり多くのユーザーに読んでもらえるようになります。

以下からは、どのような文章を書くとわかりやすく理解されやすいのかご紹介します。

1文を長くしすぎない

文章が長くなればなるほど、盛り込まれる情報の量が増えるので読者が読みにくくなります。

最大でも75文字以内におさめ、1度読んだだけで理解できるようにしましょう。

句読点を使う

文のまとまりには『、』を付けましょう。

文の区切りがわかりやすくなるので、読者にとってもリズムよく読めるようになりますよ。

指示代名詞を多用しない

次の文に移る場合も『それ』『あの』『あちら』といった指示代名詞は使いすぎないようにしましょう。

指示代名詞が登場すると、読者は何を指した言葉なのか前の文にさかのぼらなくてはいけなくなります。

読者に余計な手間を与えないためにも、できるだけそのつど代名詞を使って説明しましょう。

キーワードは『』で囲む

文中で重要な言葉が登場した場合には『』や【】を使って注目してもらいましょう。

そうすることで、何について書かれた文章か読者に理解されやすくなりますよ。

以上、理解されやすくなる文章にする方法をお伝えしました。

執筆時にぜひ試してみてくださいね。

ユーザーの検索意図をみたすコンテンツづくり

2つめに重要なのが、ユーザーの検索意図をみたすコンテンツづくりをするということです。

その理由として、ユーザーの検索意図をみたせないコンテンツは上位表示をしても意味がなくむしろGoogleの利用価値を下げてしまうからです。

そもそもユーザーがGoogleを利用するのは、自分の疑問や悩みを検索して解決したいと思っているからです。

仮に私たちが体調不良でお医者にかかったときに、原因もわからず効果のある薬も出してくれなかったらセカンドオピニオンを考えますよね。

これと同じでなんの解決策も提示できないコンテンツばかり表示されてはユーザーもGoogleを使わなくなりますよね。

Googleは企業からの広告収入で成り立っているので、利用者数の確保は死活問題です。

だからユーザーの検索意図をみたす質のいいコンテンツをつくることで、検索上位に表示してもらいやすくなりますよ。

ユーザーファーストの徹底

3つめがユーザーファーストの徹底です。

ユーザーにとって使いやすいコンテンツづくりをすれば、Googleからも信頼できるサイトだと評価してもらえ、上位に表示されやすくなります。

その理由として、Googleは近年コンテンツの順位決定に対して『信頼性』を重視しているからです。

実際にGoogleは自社で発表しているガイドラインで次のように述べています。

【Googleガイドライン:本文】
the amount of expertise, authoritativeness, and trustworthiness (E-A-T)
is very important. Please consider:
・ The expertise of the creator of the MC.
・ The authoritativeness of the creator of the MC, the MC itself, and the website.
・ The trustworthiness of the creator of the MC, the MC itself, and the website

General Guidelines|3.2 Expertise, Authoritativeness, and Trustworthiness (E-A-T)(最終閲覧日2021年7月22日)

【ガイドライン:日本語訳】
専門知識、権威と信頼性(EA-T)の量は、非常に重要です。
以下を考慮してください:
・ MC(マルチチャネル)の創作者の専門知識。
・ MC、MC自体とウェブサイトの創作者の権威。
・ MC、MC自体とウェブサイトの創作者の信頼性

このように発表されており、ユーザーファーストを徹底したサイトは信頼性が高くなり検索上位に表示されやすくなりますよ。

実際に信頼性を高めるために確認すべきこともGoogleが示してくれていますので、ご紹介します。

・コンテンツに誤字やスタイルに関する問題がないか?
・コンテンツは適切に制作されているか?急いで制作されたような印象を与えていないか?
・コンテンツが大量生産されていたり、多数のクリエイターへの外部委託によって制作されていたり、大規模なサイト ネットワークに散在しており、個々のページまたはサイトのプレゼンスが低下していないか?
・コンテンツに、主要なコンテンツを妨害したり注意をそらしたりするほどの大量の広告が掲載されていないか?
・コンテンツは、モバイル デバイスでも適切に表示されるか?

Googleウェブマスター向け公式ブログ|Google のコア アップデートについてウェブマスターの皆様が知っておくべきこと(最終閲覧日2021年7月22日)

自分がコンテンツづくりをおこなったときは、上記の質問を確認し信頼性の高い内容か確認しましょう。

独自のコンテンツづくり

4つめの方法は独自のコンテンツづくりをするということです。

独自のコンテンツづくりをおこなうと、Googleのアルゴリズムから評価してもらえ上位表示されやすくなるからです。

その理由として、オリジナリティのあるコンテンツではユーザーが初めて知る情報も掲載されており、「検索してよかった」と満足感をもってもらえるからです。

Google検索を利用することで満足感を得られると、その後も固定ユーザーとなってもらいやすくなりますよね。

実際にGoogleの公式ホームページで下記のとおり記載されており、Webサイトのオリジナリティを重視しているとわかります。

その一環として、今週、ウェブサイトの品質の評価方法に改善を加えました。今回のアップデートにより、ユーザーに有用で信頼できる情報を提供することよりも、検索結果のより上位に自ページを表示させることに主眼を置く、品質の低いサイトの順位が下がります。その結果、オリジナルで有用なコンテンツを持つ高品質なサイトが、より上位に表示されるようになります。

Googleウェブマスター向け公式ブログ|日本語検索の品質向上にむけて(最終閲覧日2021年7月22日)

コンテンツの独自性を高めるためには、次のことを試してみてください。

実体験を書く

自分で体験したことは、他のWebサイトにはないオリジナリティを生みます。

たとえば、『クラウドソーシングで月30万円稼ぐまでの道のりを掲載する』といったコンテンツは自分でやった人でないと書けません。

大多数が経験していないことを掲載すると、独自性の高いコンテンツになってくれますよ。

自分で画像を撮影する

Webコンテンツに掲載する画像も自分で撮影した写真を使用しましょう。

フリー画像は便利ですが、どこか既視感が出てしまいます。

コンテンツの内容に合わせて自分が撮った写真を使用すれば、ユーザーにとっても新鮮です。

読者にアンケートをおこなう

自分のコンテンツに来てくれた方に直接アンケートを取る方法もおすすめです。

なぜなら本当にユーザーが悩んでいることをダイレクトに集められ、今後のコンテンツにづくりに反映できるからです。

そうすると、他のサイトと差別化を図れる独自性が高まりますよね。

以上3つの方法をお伝えしました。

どれもすぐにおこなえることばかりなので、試してコンテンツの独自性を高めましょう。

なお、これらのように高評価を受けやすくなるテクニックをSEOライティングと言います。

SEOライティングに関しては『SEOライティングのコツ24選!初心者でも書き方次第で上位表示可能です』で解説していますので、コンテンツ作りに役立ててください。

自然言語処理の今後について

これからBERTのような自然言語処理技術はどのように広がっていくのかみてみましょう。

自然言語処理の広がり

さまざまな分野で自然言語処理を用いたサービスが開発され注目を集めています。

『仕事のAI』サービス

株式会社リコーは同社で保管している文書や画像を自然言語処理モデルで分析をして、業務に役立てる『仕事のAI』を開発しました。

仕事のAIを使うことで、今までバラバラだった文書や営業記録、お客さまの声といった情報をつなげ業務の効率化に役立てるとしています。

今後はさまざまな分野への提供を考えており、将来的には海外展開も目指しているとのことです。

法人向け名刺管理サービス『Sansan』

名刺管理サービスの株式会社Sansanでは、自然言語処理を活用した名刺管理サービスを扱っています。

同社のサービスでもある『Sansan』は名刺に記載されている情報をもとに、ビジネスチャンスの発掘やコンプライアンスチェックをおこなってくれます。

さらにSansanを使い『ビジネスパーソン同士のつながりを可視化する』といった、今までの名刺管理とはまったく異なるサービスもおこなっています。

このようにBERTに限らず、自然言語処理は今後のビジネスになくてはならないものだとわかりますね。

BERT以外の自然言語処理モデルについて

BERTの発表以降、その機能を上回る言語処理モデルがいくつか誕生しています。

GPT-3

アメリカで開発された文章作成の『GPT-3』はまるで人間が書くのと同様に執筆ができるといいます。

海外の実験では、ブログの作成や掲示板投稿をおこなってもAIと気が付かれず、GPT-3とやりとりを続ける人まで現れたそうです。

今後は議事録やマニュアルの自動作成を担ってくれると期待されています。

Meena

Googleが2020年に発表したMeenaはBERTの技術を応用したチャットボットです。

これまでAIとの会話は機械的で不自然なものが多かったのですが、Meenaは相手にボケることでも話題になりました。

より文脈を理解して相手が望む以上の返答ができるとは驚きですね。

以上、BERT以外の自然言語処理モデルをご紹介しました。

このようにBERTの開発をもとにさらなるAIの進化が続きそうですね。

まとめ|BERTはSEO対策で重要な考えです

この記事を読んでBERTがとてもすぐれた自然言語処理技術だとわかりましたよね。

もしもBERTを実際に使用する場合には、日本語版で提供されているモデルや軽量版であるALBERTを利用するのがおすすめです。

記事で解説したとおり、BERTを1から利用しようと思うと多くの学習時間と高性能なマシンが必要になってしまうからです。

すでに学習済みで公開されているものであれば、気軽に使えますよね。

さらにBERTを考慮したSEO対策をおこなう場合は、これまで以上に検索意図にマッチするコンテンツづくりやユーザーファーストを徹底しましょう。

その理由としてBERTは今まで以上にユーザーの検索クエリを読み取り、マッチしたコンテンツを探せるようになったからです。

そのため今までSEOに有効だとされていたテクニックだけでは、ユーザーの検索意図をみたせず今後は上位表示されない可能性があります。

このことから、ユーザーファーストを徹底し質の高いコンテンツづくりをしましょう。

タイトルとURLをコピーしました