JADEファウンダーの長山です。
今回は、7/25に開催したセミナー「AIを超える大転換に気づいてますか? SEOツールの新たな地殻変動」を記事化しました。セミナーにご参加いただいた方は振り返りがてら、ご参加いただけなかった方はキャッチアップしながら読んでいただけると嬉しいです!
【目次】
- AIブームはSEOに「革命的」な影響をもたらしたか
- SEOの地殻変動をもたらした2つのツールとは
- 2つのツールを使いこなすにはハードルもある
- マーケターが検索データに向き合うために開発された「Amethyst (アメジスト)」
AIブームはSEOに「革命的」な影響をもたらしたか
ここ2年ほど、SEOに関する議論は、生成AI、特に大規模言語モデル (LLM - Large Language Model) がもたらす大きな変化、というトピックに集中してきました。たしかに LLM はコンテンツというものに対する考え方を一新させました。いかにして人間が書いたコンテンツに独自の価値を付与していくか、という非常に大きな問題を、コンテンツに携わるすべての人に対して突きつけることになったことは事実です。
しかし、AIの革命的な影響はまだ将来の話であり、現時点では Google 検索や Amazon、Facebook などが登場した時ほどの大きな変化は起きていないといえるでしょう。AIはたしかに便利で、さまざまな業務効率化に役立っています。たとえば、このセミナーの説明文をAIに書いてもらったり、日々の業務で文章の整形やキャッチコピーの作成に利用したりしています。しかし、これらの便利さが本当に革命的かというと、まだそこまではいっていない、と私は考えています。
Google 検索の登場により、私たちは膨大な情報に瞬時にアクセスできるようになりました。Amazon の出現で、オンラインショッピングが日常的になりました。Facebook や Twitterにより、世界中の人々と簡単につながることができるようになりました。これらと比較すると、現在の AI の影響は、単に既存の仕事をより効率的にできるようになった、という話にとどまる部分が大きく、まだ限定的といえます。
実際、OpenAI の創設者であるサム・アルトマンなど、さまざまな AI 業界のリーダーたちも、AI の革命的な影響は将来の話として語っています。AGI(汎用人工知能)が実現すれば私たちの仕事の多くが AI に取って代わられるかもしれない、そこまで至るのにあと何年、といった具合です。
しかし、それはまだ将来の話であり、現時点ではそこまでの変革は起きていません。検索エンジン業界においても、Bing が AI を搭載することでシェアを大きく獲得するということはおこっていません。最近リリースされた Google の AI Overview も、全体の約7%程度でしか表示されていないという話もあります。
SEOの地殻変動をもたらした2つのツールとは
ここ数年で実際に SEO で起こった大きな地殻変動といえば、URL Inspection API と Search Console BigQuery Export がもたらしたものと考えます。これらが提供されたことによって初めて、真にデータドリブンなSEOというものが可能になったからです。
これにより初めて、クロールとインデックス、そしてインプレッションとクリックに関する非常にリッチなデータが Google から提供されることになりました。以前は見ることができず、想像することしかできなかった数多くのデータが、実際に検証可能な形でデータの分析者に対して提供されることになったわけです。
URL Inspection API
ご存知ない方のために簡単に説明すると、URL Inspection API は 2022 年に登場した APIです。自分が保持している Search Console プロパティ内部に存在する URL に関して、ほぼ全てのクロール・インデックスに関する情報を得ることを可能にします。1日あたりの制限が2000と厳しいことがネックですが、ここまで詳細な情報を大規模に取得することができるようになったことは画期的で、サイトのインデックス状況に関する分析をかなり精緻に行うことが可能になりました。
「最近、自分のサイトがあまりインデックスされていない気がする」という悩みは、数多くの SEO 担当者が抱いているものでしょう。URL Inspection API を上手く用いれば、どのサブディレクトリが、どの条件下でインデックスされており、どの条件下ではインデックスされていないかを測ることができるようになります。たとえば「案件一覧ページで、検索結果が10件以上の場合はインデックス率が80%近いが、検索結果が1件以上5件未満の場合は20%程度」のような分析が可能になります。
セミナーでは以下のようなスライドを使用しました。Search Console のURL検査は、詳細なデータを提供する便利なツールですが、手動操作の労力と1日あたりの検査可能URL数の制限が課題となっています。大規模サイト分析のためのサイト検索機能によるスクレイピングも、結果の正確性や技術的制約から推奨できません。サブディレクトリプロパティの分割は、特定の構造のサイトには有効ですが、それ以外のパターンでは対応が困難です。それぞれ一長一短があり、サイト全体の分析には限界がありました。
URL Inspection APIを使えば、サンプリングしたデータに対して自動的かつ正確にインデックス情報をチェック可能です。手動操作やサイト検索に頼る必要がなく、インデックスされていない理由など、詳細な情報も提供します。1プロパティあたり1日2000件のURL検査が可能で、大規模なサイト分析を効率的に行えることが大きな利点と言えます。
活用すれば、たとえばどのディレクトリがより多くインデックスされているのか?といった数字を比較可能になります。
クローラーの動きを把握することは、大規模なサイトのSEOにおいては非常に重要になります。従来は、サーバーログをデータレイクにエクスポートした上で、ドメイン知識を用いたデータ分析を行う必要がありました。エンジニアの工数、ストレージ確保、ドメイン知識を用いたデータ分析が可能な人材の確保など、多くの課題がありました。
URL Inspection API の使用で、クロール率やクロール頻度の把握を大幅に簡略化することができます。URL 群の最終クロール日時を容易に確認でき、1回の API 呼び出しでクロール率を算出できます。エンジニアの工数とストレージコストを大きく削減でき、サーバーログのエクスポートや複雑なデータ分析基盤の構築が多くのケースでは不要になりました。全件調査はできないというデメリットはありますが、多くの場合、クロール状況の概要把握には十分な情報が得られます。
Search Console BigQuery Export
Search Console BigQuery Export は 2023 年に登場し、Search Console の検索パフォーマンスに関するデータを一気に BigQuery へとエクスポートすることができるようにしました。これにより、Search Console フロントエンドの制限をはるかに超える量のデータを多様な角度から分析することができるようになります。今まで存在した API 経由でエクスポートしたデータでさえ5万行の制限が存在しましたが、これを利用すれば実質全てのクエリと全てのURLが BigQuery 上で利用できるようになりました。
これに Google Analytics 4 の BigQuery Export を加えれば、JADE が提唱する SEO フレームワークである検索インタラクションモデルの中に存在する DCIR - QCLS 全てのフェーズに対応する形でのデータ分析を行うことができるようになります。とうとうデータドリブンSEOの時代が到来したのです。
「title を変更したページ群の click / impression 推移を時間軸で追い続けたい」といったようなモニタリング要件が発生することも多々あります。今までは Search Console UI で URL を指定した状態のものをブックマークしておき手動で追う、というようなことが必要でした。
BigQuery を用いれば、title を変更したページ群を簡単に追い続けられますし、他の、title を変更していないページ群と比べてどうか、統計的に優位さがあるか、といった分析もできるようになります。BigQuery テーブルの扱い方さえわかっていれば、ニーズにあった多様な分析がいくらでもできてしまいます。
セミナーでは以下のようなスライドを使用しました。記事リライトや title、description などの変更後のクリック数変化を時系列で追跡することは重要ですが、従来の方法には限界がありました。Search Console は特定URLの保存や複数分析の一括表示が難しく、サードパーティツールはクリックデータの取得ができず、順位データの正確性も低いという問題がありました。そのため、ファーストパーティデータである Search Console を使いたいものの、そのフロントエンドの使いづらさ、データの不十分さが大きな障害でした。
BigQuery Export の登場は、検索エンジンに関わるデータ分析に革命をもたらしました。これにより、以前は不可能だった全量データの分析が可能になったからです。フロントエンドでも詳細データは上位1000件まででした。API を用いても、1日5万行の制限があり、大規模サイトのニーズを満たせませんでした。
BigQuery Export は、この制限を取り払い、全量データへのアクセスを提供しました。これにより、BigQuery を利用できる環境と SQL を書くスキルがあれば、データを自由に分析し、BIツールでグラフ化することができるようになりました。これにより、SEO 担当者はより深い洞察を得られるようになり、データを活用した意思決定が格段に容易になります。
2つのツールを使いこなすにはハードルもある
もちろんこれらのツールを使いこなすのにはいくつかハードルがあります。スライドで説明します。
URL Inspection API には、前述の通りプロパティごとに 1日 2000 件という大きな制限があります。ドメインプロパティや URL プレフィックスプロパティを複数作成することである程度上限を増やすことは可能ですが、それでもせいぜい1日1万件です。これをこの制限の中で最大限に使いこなすためには、ランダムサンプルをうまく使う必要があります。また、API を利用するインフラや、貯めたデータをビジュアライズするためのダッシュボードなども必要で、マーケターが1人で扱えるものとは言い難いものです。
BigQuery Export の方は、当然ですが「BigQuery に課金し、SQL を書かなければデータを扱うことができない」という弱点があります。Looker Studio などの BI ツールを用いる方法もありますが、大規模になればなるほど Looker Studio は重くなります。BigQuery は使えば使うほど従量課金が発生するシステムなので、決済を取るのも簡単ではないという社内的な事情もあるでしょう。
マーケターが検索データに向き合うために開発された「Amethyst (アメジスト)」
こういった問題を克服し、マーケターでも扱えるように URL Inspection API と BigQuery Export を完全に攻略するために開発したのが Amethyst (アメジスト)です。
XMLサイトマップからのランダムサンプリングを利用すれば、自分でURLセットを作成する必要がなく、スケジュールした通りにAPIを叩いてその結果を保存してくれるので、インデックス率の分析が簡単になります。
SQL を書かなくても、高度な分析がダッシュボード内部で可能ですし、Amethyst 経由なら、Search Console のテーブルをいくら BigQuery で叩いても従量課金は発生しません。
データドリブンで SEO をやるために発生するブロッカーを全て消滅させ、あとはデータと向き合えばいいだけの状態にしてくれる、それが Amethyst です。
ちなみに現在、GA4 の BigQuery テーブルをつなぐことでユーザー行動のセッション単位での分析がサクサクできるようになる機能も開発中です。これにより、データドリブンSEOのオールインワンツールとして Amethyst は完成することになります。
以上、7/25に行ったセミナーを駆け足で振り返りました。
こういったツールの登場によって、真の意味でデータドリブンなSEOが初めて可能な時代がようやく到来した、と私は考えます。もちろん経験の重要性がなくなったわけではありません。けれども、従来であれば仮説にとどまっていたさまざまな考えを、データを用いて検証することができるようになれば、PDCAサイクルの効率がぐっと上昇することになります。あらゆるマーケターが、データを通じて最善の施策を発見することができる未来を、私たちは現実化させます。