Article

競合分析から始めるサイト改善:勝てるWeb戦略を立てよう

高田晃太郎
競合分析から始めるサイト改善:勝てるWeb戦略を立てよう

検索結果の上位3位がクリックの過半数を占めるという分析は複数の調査で一貫しています [1,2]。たとえばSISTRIXのCTRスタディでは1位がおよそ3割前後、10位は数%にとどまると報告されています [1]。さらに市場データを見ると、業界によってはオーガニック検索が全体トラフィックの4割以上を担うケースも指摘されています [3]。なお、CTRの実測値は年次・デバイス・SERP機能(リッチリザルト等)・地域などの条件で変動する点に留意が必要です [2,10]。つまり、どの競合と争うのか、どのクエリで評価されるのかを見誤ると、集客だけでなく収益に直結するファネル全体が歪みます。勝てる組織は、競合を「眺める」のではなく差分を定量化して仮説とロードマップに翻訳しています。技術・コンテンツ・運用を分断させず、90日のスプリントで回せる形に落とすことが鍵です。

競合分析が成果に直結する理由

競合分析はレポートを作るための儀式ではありません。勝敗は検索意図の適合度、情報利得、体験品質の3点でおおむね説明できます。検索意図の適合度は、クエリに対してユーザーが本当に求める情報形式と深さを満たしているかという問いです。情報利得は既存上位ページと比べて新規性・網羅性・具体性のどれに優位があるかを定量化する考え方で、単なる語数ではなく、固有名詞、手順、比較、事例の層が増えるほど評価されやすい傾向があります。体験品質はCore Web Vitals(ウェブ体験の主要指標)や可読性、内部リンクによる導線の明快さまで含む概念で、技術的レバーを引くほどCVRと滞在が安定しやすいことが公開事例からも示されています [4,5]。これらを分解し、競合ごとにギャップを数値で棚卸しすると、次に打つべき一手が明瞭になります。

ビジネスKPIにひもづく仮説設計

まず「勝つ」の定義を収益指標に接続します。新規獲得が主戦場なら、セッションではなく、クエリ群ごとのMQL(Marketing Qualified Lead)やSQL(Sales Qualified Lead)化率、さらに営業接点からの受注率までを一気通貫で追いかける必要があります。既存深耕が主軸なら、導入機能の活用率やアップセルの貢献がKPIになります。ここで重要なのは、競合との差分をKPI変動に結びつける因果仮説を持つことです。たとえば、比較クエリにおける情報利得を高めると直帰率が下がり、一次商談率が上がるという関係を定義しておけば、記事リライトや比較表の刷新がどの程度のパイプライン増につながるか、前もって期待値を持てます。仮説は数式に落とすと意思決定が早くなります。CVR=f(意図適合×情報利得×体験品質)のように分解し、各要素の改善幅と弾性値を暫定で設定しておくと、四半期内の配賦判断にぶれが出ません。

データソースの選び方と精度管理

分析の精度はデータの粒度とトライアンギュレーションに依存します。自社の実績はSearch ConsoleとGA4を軸に、クエリ別ランディングとイベントを紐づけます。競合はサードパーティの推定トラフィックやキーワードカバレッジ、被リンクの質、公開頻度を補助線に使います。体験品質はCrUX(Chrome UX Report)の公開データでp75のLCPやINPを原点比較すると客観性が担保できます [6]。偏りの管理も重要で、ブランドクエリが混じると勝ちやすく見えるため、ノンブランドのクエリ集合を分離し、同じSERPインテントのクラスタ同士で比べます [7]。さらに、サンプルサイズが小さいクエリは判断を保留し、近傍クラスタの代表値で補正するなど、統計的に無理のない推論枠組みを最初に決めておくとレポートがぶれません。

-- CrUXで自社と競合のLCP分布を比較(Phone, p75)
-- LCP: Largest Contentful Paint(最大コンテンツの表示)
SELECT
  origin,
  APPROX_QUANTILES(lcp, 100)[OFFSET(75)] AS lcp_p75
FROM `chrome-ux-report.materialized.device_summary`
WHERE form_factor = 'phone'
  AND origin IN ('https://example.com', 'https://competitor.com')
  AND yyyymm = 202406
GROUP BY origin;

実践プロセス:90日で作る勝てるWeb戦略

90日という制約は、意思決定と実装と検証を一体化させるのにちょうど良い長さです。最初の2週間は、戦う市場と競合群を定義し、クエリクラスタを抽出します。続く2週間で、コンテンツ、体験品質、権威性の観点から差分を定量化し、期待インパクトと実装コストで短期・中期の打ち手を優先順位付けします。その後の4週間は、テンプレート刷新や主要記事のリライト、ナビゲーションと内部リンクの再設計、パフォーマンス改善を並走させます。最後の2週間は、シグナルが乗るまでの待機と学習、勝ち筋の横展開に充て、次四半期のロードマップに昇華させます。

競合群の定義とクエリ群抽出

競合は「ビジネス上の競合」「検索上の競合」「情報上の競合」に分けて捉えると見落としが減ります。ビジネス上の競合は受注で頻出する相手で、比較・代替クエリでの可視性が重要です。検索上の競合は、製品が異なっても同じSERPで争うメディアやコミュニティであり、意図適合やE-E-A-T(経験・専門性・権威性・信頼性)の強さを持ちます [8]。情報上の競合は、課題定義やベストプラクティスの語り口が似ているサイト群で、情報利得の水準を規定します。クエリ群はSearch Consoleからノンブランドのロングテールを抽出し、正規化したn-gramとco-occurを使って意図別にクラスタ化します。ここでクラスタ代表のSERPを10件ほど精査し、上位の情報構造とメディアミックス、レビューやベンチマークの有無をメモしておくと、後段の設計が速くなります。

ベンチマーク設計とギャップ計測

ベンチマークは「ページ品質」「サイト品質」「外部シグナル」の三層で捉えます。ページ品質は意図適合、情報利得、可読性、CWVの4点で判定します。意図適合はSERPの支配形式(ハウツー、比較、テンプレート、ニュース)に合わせて構成を再設計できているか、情報利得は比較表、手順、ケーススタディ、数値などの具体性がどれだけ加わっているかを見ます。可読性は視線のリズムと段落の一貫性、見出しの意味密度で評価し、CWVはp75でLCP2.5秒以内、INP200ms以内、CLS0.1未満を最低ラインに置きます(INP: Interaction to Next Paint、CLS: Cumulative Layout Shift)[9]。サイト品質は内部リンクのグラフと重複排除の設計が肝です。ハブページから関連群へのリンクが自然に成立しているか、重要ページが孤立していないかを可視化します。外部シグナルは参照ドメインの質と関連性、著者と企業の信頼性、構造化データの整備状況が重要です。

# Screaming Frogの全リンク出力CSVから内部PageRankを算出
import pandas as pd
import networkx as nx

links = pd.read_csv('all_outlinks.csv')
G = nx.DiGraph()
for _, row in links.iterrows():
    if row['Link Type'] == 'Hyperlink' and row['Follow'] == 'True':
        G.add_edge(row['Source'], row['Destination'])
pr = nx.pagerank(G, alpha=0.85)
ranked = sorted(pr.items(), key=lambda x: x[1], reverse=True)[:50]
for url, score in ranked:
    print(score, url)

実装サイクルを止めない計測設計

計測は「意図×ランディング×体験」の直交で見ると迷いません。GA4ではランディングページにクエリ意図のクラスタIDをカスタムディメンションで付与し、イベントはスクロールやCTAクリックに加えて、比較表の展開やコードコピーなど情報利得に紐づく行動も計測します。BigQuery連携を有効にしておけば、速度バケットごとのCVRや、内部PageRankとCVRの相関を検証できます。こうした仕組み化があると、施策が「効いたかどうか」を週次で意思決定可能になります。

-- LCPバケット別のCVR比較(GA4 BigQuery Export)
-- INPやCLSも同様にイベント属性として収集・分析可能
WITH sessions AS (
  SELECT
    user_pseudo_id,
    MIN(IF(event_name='session_start', event_timestamp, NULL)) AS session_ts,
    ANY_VALUE((SELECT value.string_value FROM UNNEST(event_params) WHERE key='page_location')) AS lp,
    ANY_VALUE((SELECT value.string_value FROM UNNEST(event_params) WHERE key='query_cluster')) AS cluster,
    ANY_VALUE((SELECT value.int_value FROM UNNEST(event_params) WHERE key='lcp_ms')) AS lcp
  FROM `project.dataset.events_*`
  WHERE _TABLE_SUFFIX BETWEEN '20240601' AND '20240630'
  GROUP BY user_pseudo_id
)
SELECT
  cluster,
  CASE WHEN lcp <= 2500 THEN 'fast' WHEN lcp <= 4000 THEN 'ok' ELSE 'slow' END AS lcp_bucket,
  COUNT(*) AS sessions,
  SUM(IF(conversion=1,1,0)) AS conversions,
  SAFE_DIVIDE(SUM(IF(conversion=1,1,0)), COUNT(*)) AS cvr
FROM (
  SELECT s.*, IF(e.event_name='generate_lead',1,0) AS conversion
  FROM sessions s
  LEFT JOIN `project.dataset.events_*` e
  ON e.user_pseudo_id = s.user_pseudo_id AND e.event_timestamp >= s.session_ts
)
GROUP BY cluster, lcp_bucket;

技術レバーとコンテンツレバーをどう効かせるか

勝てるサイトは技術と編集が同じ設計図を見ています。技術レバーでは、画像の次世代フォーマットや適切なサイズ供給、プリロードと接続の事前確立、クリティカルCSSの抽出、不要JSの削減、エッジキャッシュの活用が定番です。とくにファーストバイトとLCPの安定化は商談率に寄与する可能性が高いと報告されています [4,5]。テンプレートのファーストビューを軽くし、折りたたみ以降のコンポーネントを遅延読み込みに切り分けると、INPも改善しやすくなります。編集側のレバーは、意図別の構成テンプレート、情報利得の足し方、E-E-A-Tの可視化です。比較系では差分表の更新、ベンチマークの再現性、導入事例の定量データ化が効きます。ハウツー系では手順に加えて失敗例や注意点、チェックリストを含めると満足度が上がります。信頼性では著者・監修のプロフィール、第三者評価やレビューの引用、そして構造化データの整備が武器になります。

# エッジでのキャッシュ最適化(stale-while-revalidate)
location / {
  proxy_cache my_cache;
  proxy_cache_valid 200 301 302 10m;
  add_header Cache-Control "public, max-age=600, stale-while-revalidate=60";
  proxy_cache_use_stale updating error timeout http_500 http_502 http_503;
}
{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "競合分析から始めるサイト改善",
  "author": {"@type": "Person", "name": "高田晃太郎"},
  "publisher": {"@type": "Organization", "name": "NOWH"},
  "datePublished": "2025-08-30",
  "about": ["SEO", "競合分析", "Web戦略"],
  "mainEntityOfPage": "https://example.com/articles/competitive-analysis"
}

技術と編集の打ち手は相互作用します。テンプレートの初期レンダーから比較表の主要行を含めると、インデックス時に情報利得が認識されやすく、同時にLCPの影響を受けるためバイトサイズの管理が前提になります。著者情報や実績をコンポーネント化して全記事に均一に展開できるようにすると、E-E-A-Tのベースラインが上がります [8]。構造化データはテンプレートで出し分け、HowToやFAQの対応は検索意図を満たす場合に限定して適用すると、リッチリザルトの獲得率が高まります。

組織に根付かせる運用設計

仕組みは習慣に落ちたときに強くなります。週次では主要クラスタのSERP変動と、対象テンプレートのCWV、主要記事のCVRを短いダッシュボードで確認し、意思決定のログを残します。隔週で編集と開発が合同のレビューを行い、リライトのブリーフと技術課題を同じチケットで管理します。月次では、意図別クラスタのMQL・SQLや受注額までをサマリーし、最も効いた構造を水平展開する計画を立てます。ここで勝ち筋の再現可能性を重視し、偶然ではなく設計で勝てたことを検証する姿勢が重要です。バックログはクエリ価値×達成確率×実装コストでスコアリングし、四半期の予算とマンパワーに合わせて切り出します。意思決定の速度を落とさないために、失敗の上限と観測期間を事前に合意しておくと、打ち手の停止や継続が感情に左右されません。

ケースに学ぶ設計と効果の出し方

たとえばB2B SaaSで比較クエリのSERPが競合記事に偏っているケースでは、クラスタを「競合A vs 自社」「競合B vs 自社」「カテゴリ横断の比較表」に整理し、情報利得を意識して差分の根拠を定量化します。ユースケース別の費用対効果、導入期間、APIのカバレッジ、SLAの水準、実行時のボトルネックと回避策までを表現し、テンプレートを刷新します。あわせてテンプレートのLCPやINPを「良好」指標に安定させると、比較クラスタの直帰率や一次商談率といった中間指標が改善する傾向を確認しやすくなります。これは、構成とパフォーマンスを同時に最適化し、検索意図の支配形式に合わせたことが効いたと解釈できます。ハウツーが支配的なクラスタでは、導入ステップと設定の抜けやすい箇所を丁寧に補い、必要に応じて構造化データのHowToを適用します。ナレッジ系クラスタでは、独自調査やログ由来のグラフを加え、情報利得を積み上げます。国内外の公開事例でも、CWVの改善がビジネス指標に寄与した報告があり [4,5]、仮説・実装・計測の往復を短く保つほど学習速度が上がり、合意形成も前に進みやすくなります。

さらに深掘りしたい読者は、テクニカルSEOの観点を整理した解説や、Core Web Vitalsの改善ステップ、GA4のイベント設計とBigQuery活用の入門も併読すると、全体像と具体の往復がしやすくなります。

まとめ:競合を差分に翻訳し、90日で勝ち癖をつける

競合分析の価値は、美しいスライドではなく、次の四半期に効く差分の翻訳能力に尽きます。検索意図、情報利得、体験品質という3つの軸に分解して計測し、クエリ価値に応じて技術と編集の両レバーを引けば、収益に接続する学習ループが回り始めます。まずは主要クラスタを三つだけ選び、テンプレートの刷新と内部リンクの再設計、そしてCWVの安定化を同時に走らせてください。最初の90日で小さな勝ち筋を作れたら、あとは横展開の速度を上げるだけです。あなたのチームは次にどのクラスタで勝ちますか。今日、ダッシュボードに「意図×ランディング×体験」の三視点を追加するところから始めてみましょう。

参考文献

  1. SISTRIX. These are the CTRs for various types of Google search result. https://www.sistrix.com/ask-sistrix/data-studies/these-are-the-ctrs-for-various-types-of-google-search-result/
  2. Smart Insights. Comparison of Google organic clickthrough rates (SEO CTR) by ranking position. https://www.smartinsights.com/search-engine-optimisation-seo/seo-analytics/comparison-of-google-clickthrough-rates-by-position/
  3. SEO Inc. How Much Traffic Comes From Organic Search? https://www.seoinc.com/seo-blog/much-traffic-comes-organic-search/
  4. web.dev. The business impact of Core Web Vitals – Vodafone case. https://web.dev/case-studies/vitals-business-impact/#vodafone
  5. web.dev. The business impact of Core Web Vitals – Redbus case. https://web.dev/case-studies/vitals-business-impact/#redbus
  6. Chrome Developers. Chrome UX Report (CrUX) on BigQuery. https://developer.chrome.com/blog/chrome-ux-report-bigquery/
  7. Google Search Console Help. Performance report. https://support.google.com/webmasters/answer/7576553
  8. Google Search Central. E-E-A-T and the quality rater guidelines (2022). https://developers.google.com/search/blog/2022/12/google-raters-guidelines-e-e-a-t
  9. web.dev. Web Vitals (LCP, INP, CLS thresholds). https://web.dev/vitals/
  10. Web担当者Forum. 日本のGoogle検索CTRの特徴(2021年)。https://webtan.impress.co.jp/e/2021/11/26/41981