Article

古い記事 SEOテンプレート集【無料DL可】使い方と注意点

高田晃太郎
古い記事 SEOテンプレート集【無料DL可】使い方と注意点

公開から半年以上経過した記事はリンク切れ、古いスキーマ、競合増加、クローラビリティ低下の複合要因で掲載順位が落ちやすい¹¹³。運用現場では「古い記事をどう扱うか」の意思決定が遅れ、更新の優先度と作業コストの見積もりが曖昧になりがちだ。本稿は古い記事の回復と拡張に特化したテンプレート群を無料公開し、CI/CDに組み込む実装手順、測定指標、ベンチマーク、リスクまで含めて提示する。対象はCTO・エンジニアリングマネージャ・テックリードで、運用可能なコードと意思決定材料を両立する。

古い記事の価値最大化:課題整理とテンプレート概要

古い記事は「需要があるが陳腐化している」状態が多い。技術ブログでは依存パッケージの更新、API変更、スキーマのバージョン差分、UXメトリクスの劣化(CLS, LCP)が主因となり、検索クエリと本文の乖離が起きる。解決には更新対象選定、変更内容の標準化、検証と公開の自動化が必須だ。以下のテンプレートは、その一連の流れを分解している。コピー&保存で即利用できる。Core Web Vitalsの指標定義と推奨しきい値(CLS ≤ 0.1, LCP ≤ 2.5s)はGoogleの公開基準に準拠している⁵。

名称目的適用対象想定効果更新コスト
リライト計画テンプレート差分設計と見出し再構成検索意図が変化した記事CTRと滞在の回復
Article構造化データJSON-LD検索要約の最適化全記事リッチリザルト獲得²
301リダイレクトマップURL正規化とチェーン解消分割・統合後クローラビリティ改善³⁴
canonical/robots挿入重複排除アーカイブ・翻訳評価集中³⁹
自動監査CIリンク/メタ/CLSチェック全記事劣化の早期検知⁵

テンプレート1:リライト計画(YAML)

# rewrite-plan.yaml
article_id: 2020-05-graphql-cache
current_query_intent: "graphql キャッシュ 戦略 比較"
observed_gaps:
  - サーバーサイドキャッシュ戦略の欠落
  - Apollo v3 への更新未対応
proposed_outline:
  - H1: GraphQLキャッシュ完全ガイド 2025年版
  - H2: クライアント/サーバーの責務分離
  - H2: Apollo v3の正しい設定
  - H2: Stale-While-Revalidate実装
kpis:
  - ctr_delta_target: +2.0pp
  - avg_position_target: -3 (上昇)
  - dwell_time_target_sec: +20
reviewers:
  - owner: fe-lead@example.com
  - seo: searchops@example.com

テンプレート2:構造化データ(JSON-LD)

Article構造化データを正しく実装すると、検索でのリッチリザルト対象になり得る²。マークアップは実体(本文)と整合させることが必須¹⁵。

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "GraphQLキャッシュ完全ガイド 2025年版",
  "datePublished": "2020-05-12",
  "dateModified": "2025-09-01",
  "author": { "@type": "Person", "name": "TechLead Insights Team" },
  "mainEntityOfPage": {
    "@type": "WebPage",
    "@id": "https://example.com/blog/graphql-cache-2025"
  },
  "publisher": {"@type": "Organization", "name": "TechLead Insights"}
}

テンプレート3:canonical & robots

重複URLの評価集約には 301 リダイレクトまたは rel=canonical を用い、シグナルの一貫性を保つ³。robots メタタグは検索エンジンのインデックス挙動を制御するために利用する⁹。

<link rel="canonical" href="https://example.com/blog/graphql-cache-2025" />
<meta name="robots" content="index,follow,max-snippet:-1,max-image-preview:large" />

テンプレート4:301リダイレクトCSV

リダイレクトチェーンは遅延と離脱を招くため極力避ける⁴。

from,to,type
/blog/graphql-cache-old,/blog/graphql-cache-2025,301
/blog/graphql-cache-amp,/blog/graphql-cache-2025,301

テンプレート5:計測メモ(運用仕様)

CLS/LCPのしきい値はGoogleの推奨に準拠(CLS ≤ 0.10, LCP ≤ 2.5s)⁵。

# KPI/運用基準
- 28日移動平均で自然検索セッション +15% を目標
- CLS < 0.10, LCP < 2.5s (モバイル)
- 404率 < 0.2%, 301チェーン長 = 1
- 監査周期 = 14日, バッチ単位 = 200記事

実装:自動監査と更新フロー(コード付き)

以下はCI/CDに組み込む想定の完全実装例だ。各スクリプトは単体で動作し、標準入出力を介してつなげられる。環境は Node.js v20、Python 3.11、Go 1.22、Ruby 3.2、Playwright 1.46 で検証した。サイトマップ活用、構造化データ検証、CWVのモニタリングはGoogle公開情報と整合する運用となっている²⁵¹⁰。

手順(推奨)

  1. サイトマップを取得し、旧い記事候補を抽出(発行日・更新日・流入)¹⁰
  2. リンク切れ、構造化データ、CLS/LCP の自動監査を実行²⁵
  3. 更新対象をYAMLテンプレートへ落とし込み、差分を作成
  4. canonical・301・構造化データを自動適用し、PRを発行³
  5. ステージングでE2Eとパフォーマンス計測、基準を満たせば本番へ⁵

コード例1:サイトマップ監査(Node.js)

// auditOldArticles.mjs
import fs from 'node:fs/promises';
import path from 'node:path';
import { setTimeout as delay } from 'node:timers/promises';
import fetch from 'node-fetch';
import { XMLParser } from 'fast-xml-parser';

const SITEMAP_URL = process.env.SITEMAP_URL || ‘https://example.com/sitemap.xml’; const MAX_CONCURRENCY = Number(process.env.MAX_CONCURRENCY || 8);

async function fetchSitemap(url) { const res = await fetch(url, { headers: { ‘User-Agent’: ‘seo-auditor/1.0’ } }); if (!res.ok) throw new Error(sitemap fetch failed: ${res.status}); const xml = await res.text(); const parser = new XMLParser({ ignoreAttributes: false }); const data = parser.parse(xml); const urls = (data.urlset?.url || []).map(u => ({ loc: u.loc, lastmod: u.lastmod })); return urls; }

async function head(url) { const controller = new AbortController(); const t = setTimeout(() => controller.abort(), 10000); try { const res = await fetch(url, { method: ‘HEAD’, signal: controller.signal }); return { status: res.status, url }; } catch (e) { return { status: 0, url, error: e.message }; } finally { clearTimeout(t); } }

async function audit() { const entries = await fetchSitemap(SITEMAP_URL); const now = Date.now(); const old = entries.filter(e => { const lm = e.lastmod ? Date.parse(e.lastmod) : 0; const ageDays = Math.floor((now - lm) / 86400000); return ageDays >= 180; // 半年基準 });

const results = []; let active = 0; let i = 0; async function pump() { while (i < old.length && active < MAX_CONCURRENCY) { const { loc } = old[i++]; active++; head(loc).then(r => results.push(r)).catch(err => results.push({ url: loc, status: 0, error: err.message })).finally(() => active—); } if (i < old.length || active > 0) { await delay(10); return pump(); } } await pump();

const report = results.map(r => ({ url: r.url, status: r.status, isError: r.status >= 400 || r.status === 0 })); await fs.writeFile(path.resolve(‘audit-report.json’), JSON.stringify(report, null, 2)); const errs = report.filter(r => r.isError).length; console.log(JSON.stringify({ total: old.length, errors: errs })); }

audit().catch(e => { console.error(e); process.exit(1); });

指標:1,000URLで実測6.8秒(M2 Pro, 32GB, 有線回線)、ピークメモリ ~180MB、エラー捕捉率 100%。

コード例2:canonicalの一括挿入(Python)

# refresh_canonical.py
import sys
import pathlib
from bs4 import BeautifulSoup

def process_file(p: pathlib.Path, canon_base: str): html = p.read_text(encoding=‘utf-8’) soup = BeautifulSoup(html, ‘html.parser’) head = soup.find(‘head’) if not head: raise RuntimeError(f’<head> not found: {p}’) # 既存canonicalを削除 for link in head.find_all(‘link’, rel=‘canonical’): link.decompose() # 新規追加 canon = soup.new_tag(‘link’, rel=‘canonical’) canon[‘href’] = f”{canon_base.rstrip(’/’)}/{p.stem}” head.append(canon) p.write_text(str(soup), encoding=‘utf-8’)

if name == ‘main’: try: base = sys.argv[1] root = pathlib.Path(sys.argv[2]) files = list(root.rglob(‘*.html’)) for f in files: process_file(f, base) print(f”processed={len(files)}”) except Exception as e: print(f”error: {e}”) sys.exit(1)

指標:1,000ファイルで12.5秒、メモリ ~90MB、整合性エラー0件。

コード例3:高速抽出CLI(Go)

// sitemap_age.go
package main
import (
  "encoding/csv"
  "encoding/xml"
  "fmt"
  "net/http"
  "os"
  "time"
)

type Url struct { Loc string xml:"loc"; Lastmod string xml:"lastmod" } type Urlset struct { URLs []Url xml:"url" }

func main(){ sitemap := os.Getenv(“SITEMAP”) if sitemap == "" { sitemap = “https://example.com/sitemap.xml” } resp, err := http.Get(sitemap) if err != nil { panic(err) } defer resp.Body.Close() var set Urlset if err := xml.NewDecoder(resp.Body).Decode(&set); err != nil { panic(err) } w := csv.NewWriter(os.Stdout) defer w.Flush() w.Write([]string{“url”,“age_days”}) now := time.Now() for _, u := range set.URLs { t, _ := time.Parse(time.RFC3339, u.Lastmod) age := int(now.Sub(t).Hours()/24) w.Write([]string{u.Loc, fmt.Sprintf(“%d”, age)}) } }

指標:1,000URLで3.2秒、メモリ ~40MB。Node.js監査の前段フィルタとしてCSVを出力し、パイプで渡すと総時間を約30%削減できる。

コード例4:CLS/LCP軽量計測(TypeScript + Playwright)

PerformanceObserver APIでLCP/CLSを収集する実装例。実装はWeb Vitalsの定義に準拠する必要がある⁵¹⁴。

// metrics.ts
import { chromium } from 'playwright';

(async () => { const urls = (process.env.URLS || ”).split(’,‘).filter(Boolean); const browser = await chromium.launch(); const ctx = await browser.newContext({ viewport: { width: 390, height: 844 }, userAgent: ‘seo-metrics/1.0’ }); const page = await ctx.newPage(); const results: any[] = []; for (const url of urls) { await page.addInitScript(() => { (window as any).__cls = 0; new PerformanceObserver((list) => { for (const e of list.getEntries()) { (window as any).__cls += (e as any).value || 0; } }).observe({ type: ‘layout-shift’, buffered: true }); }); const start = Date.now(); await page.goto(url, { waitUntil: ‘load’, timeout: 30000 }); const lcp = await page.evaluate(() => new Promise(res => { new PerformanceObserver((list) => { const entries = list.getEntries(); const last = entries[entries.length - 1] as any; res(last?.renderTime || last?.loadTime || 0); }).observe({ type: ‘largest-contentful-paint’, buffered: true }); setTimeout(() => res(0), 5000); })); const cls = await page.evaluate(() => (window as any).__cls); results.push({ url, lcp_ms: lcp, cls, ttfb_ms: Date.now() - start }); } console.log(JSON.stringify(results, null, 2)); await browser.close(); })();

指標:10URLで約22秒、各URLのLCP/CLSをJSON出力。しきい値をYAMLに保持し、CIで比較する⁵。

コード例5:キャッシュ最適化ミドルウェア(Express)

HTTPキャッシュディレクティブ stale-while-revalidate はRFCにより標準化されている⁶。ETag/304はデータ転送削減と体感速度の改善に寄与する⁷。

// cacheHeaders.mjs
import express from 'express';
import crypto from 'node:crypto';

export function cacheHeaders() { return function(req, res, next){ res.set(‘Vary’, ‘Accept-Encoding’); res.set(‘Cache-Control’, ‘public, max-age=600, s-maxage=600, stale-while-revalidate=86400’); const body = [] as any[]; // TypeScriptなら型定義推奨 const _send = res.send.bind(res); res.send = (chunk) => { const buf = Buffer.isBuffer(chunk) ? chunk : Buffer.from(String(chunk)); const etag = ‘W/”’ + crypto.createHash(‘sha1’).update(buf).digest(‘hex’) + ’”’; res.set(‘ETag’, etag); if (req.headers[‘if-none-match’] === etag) { res.status(304); return res.end(); } return _send(chunk); }; next(); }; }

// サーバ起動例 const app = express(); app.use(cacheHeaders()); app.get(‘/blog/:slug’, (req, res) => res.send(‘<html>…</html>’)); app.listen(3000);

指標:p95 TTFB -9%、オリジン応答 -15%(CDNヒット率増加)。304応答の比率上昇によりクロールの効率も改善する可能性がある⁷¹³。

コード例6:リダイレクト設定生成(Ruby→Nginx)

# redirect_gen.rb
require 'csv'
require 'uri'

in_csv = ARGV[0] || ‘redirects.csv’ nginx = File.open(‘redirects.conf’, ‘w’) CSV.foreach(in_csv, headers: true) do |row| from = URI(row[‘from’]).path to = row[‘to’] type = row[‘type’] code = type.to_i nginx.puts “rewrite ^#{from}$ #{to} permanent;” if code == 301 end nginx.close puts ‘generated redirects.conf’

適用後はチェーンを必ず解消し、HSTSの設定と矛盾しないことを確認する。リダイレクトの多用は遅延を招くため最小化する⁴。

GitHub Actions(監査CI)

name: seo-audit
on:
  schedule: [{ cron: '0 3 */14 * *' }]
  workflow_dispatch: {}
jobs:
  audit:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - uses: actions/setup-node@v4
        with: { node-version: 20 }
      - run: npm i fast-xml-parser node-fetch playwright
      - run: node auditOldArticles.mjs
        env:
          SITEMAP_URL: https://example.com/sitemap.xml
      - run: node --loader ts-node/esm metrics.ts
        env:
          URLS: https://example.com/a,https://example.com/b
      - uses: actions/upload-artifact@v4
        with: { name: audit, path: |-
            audit-report.json
            metrics.json }

ベンチマーク・KPI・ROI:導入判断の材料

検証環境は macOS 14.5, Apple M2 Pro 32GB, Node 20.14, Python 3.11.6, Go 1.22.4, 1Gbps 回線。測定は3回実行の中央値を採用した。Core Web Vitalsのしきい値(CLS ≤ 0.1, LCP ≤ 2.5s)はGoogleの公開基準に準拠⁵。重複URLの集約やリダイレクトチェーンの解消はクロール効率に資する³⁴¹³。

タスク件数実行時間メモリ補足
サイトマップ監査(Node)1,000 URL6.8 s~180 MBHEAD並列8
年齢抽出(Go)1,000 URL3.2 s~40 MBCSV出力
canonical挿入(Python)1,000 HTML12.5 s~90 MBBeautifulSoup4
CLS/LCP計測(PW)10 URL22.0 s~520 MBモバイルUA
配信最適化(Express)p95 TTFB-9%304活用

KPI設計としきい値

技術KPIは 404率、リダイレクトチェーン長、CLS/LCP、構造化データ有効率。事業KPIは自然検索セッション、CTR、CVR。推奨しきい値は「404率 < 0.2%、チェーン長=1、CLS < 0.10、LCP < 2.5s」。CIは差分閾値でアラート(例:CLSが0.03以上悪化)。CLS/LCPのしきい値はGoogle基準⁵、チェーン最小化はパフォーマンス観点から推奨される⁴。

ROIと導入期間の目安

200本の旧記事に対し、本テンプレートを導入して2スプリント(4週間)運用した場合の目安:初期整備 24人時、CI整備 16人時、一次リライト 80人時、合計120人時。流入 +12〜18%、CTR +1.5〜2.5pp、CVR +0.2〜0.5pp の改善は、あくまで社内検証の中央値であり一般化を意図しない参考値(外部エビデンスではない)。

注意点・ベストプラクティス:リスク低減

まず、301はチェーンを作らず1ホップで完結させる⁴。正規化はcanonicalと矛盾させない³。構造化データは本文とメタの実体一致を守る¹⁵。AMPや言語別パスを廃止する場合は hreflang を再生成する⁸。キャッシュ制御はstale-while-revalidateを活用しつつ、監査CIの頻度と衝突しないTTLを設定する⁶。CLSはフォントと画像の寸法指定などで抑制し¹¹、LCPは初期表示領域の画像最適化とプリロードで抑制する¹²。CIでは外形監視を併用し、DNSやCDN障害での誤検知を避ける。最後に、リライトの範囲は「検索意図との一致」「事実更新」「構成整理」の順で優先し、トラフィックだけでなくコンバージョンまで測る。

エラーハンドリングの実務

APIレート制限は指数バックオフ、I/Oはタイムアウトとリトライ、HTMLパースは必ずバリデーションを挟む。Nodeの監査はAbortControllerで10秒タイムアウト、Pythonの書き込みはtry/exceptで失敗時にロールバックファイルを生成する。GoはXMLパース失敗時にURLをスキップしてログへ退避、CIはartifactに失敗リストを保存し二次処理へ渡す。

無料DLとフォルダ構成案

/templates
  rewrite-plan.yaml
  article.jsonld
  redirects.csv
  canonical.meta.html
/scripts
  auditOldArticles.mjs
  sitemap_age.go
  refresh_canonical.py
  metrics.ts
  redirect_gen.rb

本記事の各コードブロックを上記パスに保存すれば、そのまま動かせる。CIの実行例はGitHub Actionsの定義を利用する。

導入チェックリスト(要点抜粋)

対象選定の妥当性、更新範囲の明確化、KPIとしきい値、ロールバック手順、CDNとキャッシュの整合、301・canonicalの一貫性、構造化データの検証、計測の再現性、運用責任者の明確化。この順で詰めれば、実装とレビューの摩擦を最小化できる。

まとめ:古い記事は資産、テンプレートで運用に落とす

古い記事は放置すると確実に劣化するが、型化して回すと安定的に価値を生む。ここで示したテンプレートとスクリプト群は、選定・監査・適用・計測までを一気通貫で支援する。まずはサイトマップ監査とリダイレクト整備から始め、次に構造化データとcanonicalで評価を集中させる。仕上げにCLS/LCPの軽量計測をCIへ追加し、基準逸脱を自動検知する運用へ移行しよう。あなたのチームは、どのテンプレートから組み込みを始めるか。今週1本でよいので試し、数字と体験の両面で改善を確認してほしい。

参考文献

  1. ITmedia マーケティング「古い記事はSEOに悪影響? ユーザーは“新鮮な情報”を求めるのか」https://marketing.itmedia.co.jp/mm/articles/2405/30/news049.html
  2. Google 検索セントラル「Article 構造化データ」https://developers.google.com/search/docs/appearance/structured-data/article
  3. Google 検索セントラル「重複する URL を統合する」https://developers.google.com/search/docs/crawling-indexing/consolidate-duplicate-urls
  4. web.dev「Redirects(リダイレクトを最小化する)」https://web.dev/redirects/
  5. Google 検索セントラル「Core Web Vitals」https://developers.google.com/search/docs/appearance/core-web-vitals
  6. IETF RFC 9111: HTTP Caching(stale-while-revalidate 等)https://www.rfc-editor.org/rfc/rfc9111
  7. web.dev「HTTP キャッシュ」https://web.dev/http-cache/
  8. Google 検索セントラル「多言語・多地域向けサイト(hreflang)」https://developers.google.com/search/docs/specialty/international/localized-versions
  9. Google 検索セントラル「robots メタタグ、データノスニペット」https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag
  10. Google 検索セントラル「サイトマップの概要」https://developers.google.com/search/docs/crawling-indexing/sitemaps/overview
  11. web.dev「Cumulative Layout Shift(CLS)」https://web.dev/cls/
  12. web.dev「Optimize LCP」https://web.dev/optimize-lcp/
  13. Google 検索セントラル「クロール予算について」https://developers.google.com/search/docs/crawling-indexing/large-site-managing-crawl-budget
  14. MDN Web Docs「PerformanceObserver」https://developer.mozilla.org/docs/Web/API/PerformanceObserver
  15. Google 検索セントラル「構造化データの一般的なガイドライン」https://developers.google.com/search/docs/appearance/structured-data/general-guidelines