サイト内に低品質コンテンツがどの程度あると、SEO評価に悪影響が出るのか。「比率」というキーワードで検索する方の多くは、自サイトに存在する低品質ページの割合が全体の順位にどう波及するかを知りたいはずです。

結論として、Googleは「低品質コンテンツが何%を超えたらペナルティ」といった明確なしきい値を公表していません。しかし、サイト全体の品質を評価するシグナルは確実に存在し、低品質ページの割合が高まるほどドメイン全体の検索パフォーマンスが低下するリスクは増大します。

ここでは、Googleの公式見解を一次ソースから整理したうえで、自サイトの低品質コンテンツ比率を可視化する手順と、改善判断のフレームワークを具体的に示します。

低品質コンテンツがサイト全体のSEO評価に影響する仕組み

Googleの「サイトワイド品質シグナル」とは

Googleはページ単位の評価に加え、ドメイン全体の品質を測る「サイトワイド品質シグナル」を活用しています。Google Search Central公式ドキュメントには、以下の記述があります。

Site-wide signals and classifiers are also used and contribute to our understanding of pages. Having some good site-wide signals does not mean that all content from a site will always rank highly, just as having some poor site-wide signals does not mean all the content from a site will rank poorly.

(サイト全体のシグナルや分類器もページの理解に使われます。良好なサイト全体のシグナルがあっても、そのサイトの全コンテンツが常に上位表示されるわけではなく、逆に悪いシグナルがあっても全コンテンツの順位が下がるわけでもありません。)

出典: Google Search Central - A guide to Google Search ranking systems

つまり、サイトワイド品質シグナルは個別ページの順位を直接決定するものではなく、加点・減点の要因として機能しています。低品質ページが多いサイトでは、この減点要因が蓄積し、本来は優良なコンテンツまで順位が押し下げられる可能性があります。

ヘルプフルコンテンツシステムがコアランキングに統合された背景

2022年8月にGoogleが導入した「ヘルプフルコンテンツアップデート」は、検索ユーザーにとって有益でないコンテンツを検索結果から減らすことを目的としていました。当初は独立したランキングシステムとして動作していましたが、2024年3月のコアアップデートでコアランキングシステムに統合されています。

Google公式の説明によると、この統合により「多様なシグナルとシステムを用いてユーザーに有益な結果を提示する」仕組みへ進化しました(出典: Google Search Central - Ranking systems guide)。Googleはこのアップデートの完了後、検索結果から低品質・独自性のないコンテンツを45%削減できたと報告しています。当初の目標は40%でしたが、想定以上の品質改善が実現した形です(出典: Search Engine Journal)。

統合前のヘルプフルコンテンツシステムでは、Google公式ドキュメントに以下の記述がありました。

比較的多くの役に立たないコンテンツがあると判断されたサイトのコンテンツは、ウェブ上の他の場所に表示するのに適したコンテンツがある場合、検索でのパフォーマンスが低下する可能性がある

出典: Google Search Central - Helpful content system

つまり、サイト内の低品質コンテンツが多いほど影響は強くなるという「重み付けシグナル」として機能していました。コアランキングに統合された現在も、この「サイト全体を見て評価する」思想は引き継がれていると考えられます。

さらに、2025年12月のコアアップデートでは「優れたページが弱いサイトを救うことはできないが、弱いページが強いサイトを傷つけることはある」という傾向が業界分析で確認されており、低品質コンテンツの比率管理の重要性はますます高まっています(出典: Raptive)。

低品質ページの比率はどこまで許容されるのか?

GoogleのJohn Mueller氏は、低品質ページの比率に関して示唆的な発言をしています。ある質問者が「サイトの70%が低品質で30%が高品質だった場合」について尋ねたところ、Mueller氏は以下のように回答しました。

ページ数だけではなくもっと多くのことを評価対象にしている

さらに、自動生成された100,000ページと質の高い5ページが共存するサイトについて「それだけで悪いウェブサイトということにはならない」と述べ、高品質なページは個別に検索結果に表示される可能性があると説明しています(出典: 海外SEO情報ブログ)。

ただし同時に、Mueller氏はアルゴリズム評価とは別にユーザー体験の観点から低品質ページの削除を推奨しています。「1ページは素晴らしいが他は酷い」という印象をユーザーに与えてしまうと、リピーターの獲得が困難になるためです。

つまり、「○%以上で危険」という明確なラインは存在しないものの、以下のような状況ではSEO上のリスクが高まります。

リスク水準サイトの状態起こりうる影響
インデックス済みページの大半が低品質サイトワイド品質シグナルが悪化し、良質ページの順位も低下
低品質ページが数十%存在するクロールバジェットの浪費・一部ページの評価低下
一部に低品質ページがあるが大半は良質個別ページの順位低下に限定される

Googleが定める低品質コンテンツの具体的な判定基準

スパムポリシーで明示されている違反パターン

Google検索のスパムポリシーでは、以下のコンテンツが明確にポリシー違反として定義されています(出典: Google Search Central - Spam policies)。

違反カテゴリ概要
大量生成されたコンテンツ検索ランキング操作を主目的に、AI・スクレイピング等で大量のページを生成する行為
無断複製(スクレイピング)他サイトのコンテンツを引用元の明示や独自の付加価値なく転載する行為
薄いアフィリエイトページ販売元の商品説明をコピーしただけで独自のレビューや情報が存在しないページ
誘導ページ特定のクエリで上位表示するためだけに作られた中身の薄いページ
隠しテキスト・隠しリンクユーザーには見えない形で検索エンジン向けのコンテンツやリンクを仕込む手法
クローキング検索エンジンとユーザーに異なるコンテンツを表示する手法

これらに該当するページは手動対策(手動ペナルティ)の対象となり、サイト全体の検索パフォーマンスが大幅に低下するリスクがあります。

品質評価ガイドラインにおけるLow Quality Pagesの条件

Googleの品質評価ガイドライン(Search Quality Rater Guidelines)は、品質評価者がページの品質を判定する際の基準をまとめたドキュメントです。直接ランキングを決定するものではありませんが、Googleが目指す検索品質の方向性を示しています。

品質評価ガイドラインで「Low Quality」と判定されるページの特徴は以下のとおりです。

  • E-E-A-Tの不足: 経験(Experience)、専門性(Expertise)、権威性(Authoritativeness)、信頼性(Trustworthiness)が欠如している
  • メインコンテンツの品質が低い: ページの目的を達成するのに十分な労力・独自性・技術が投入されていない
  • 運営者情報の不足: サイトやコンテンツの責任者に関する情報が不十分
  • 広告がメインコンテンツを阻害: 過剰な広告や補足コンテンツがユーザー体験を損なっている
  • 評判や信頼性に問題がある: 誤解を招く情報やネガティブな評判が存在する

2024年3月の品質評価ガイドライン更新では、人間の監修を経ていないAI生成コンテンツが最低品質(Lowest Quality)の例として追加されました。さらに2025年1月の更新では、AI生成コンテンツの具体的な評価基準が初めて導入され、「AI使用の有無ではなく、労力・独自性・付加価値の有無」で品質が判断されることが明確化されています(出典: 海外SEO情報ブログ)。

「低品質」と断定できないグレーゾーンのページ

以下のようなページは、一見すると低品質に見えても、必ずしもGoogleがマイナス評価を下すとは限りません。

  • 文字数が少ないページ: 辞書的な定義ページやFAQ回答など、短くても検索意図を満たしていれば問題ない
  • オーガニック流入が少ないページ: ニッチなトピックで検索需要自体が小さい場合、流入の少なさだけでは低品質と判定できない
  • 直帰率が高いページ: ユーザーが1ページで目的を達成できた場合、直帰率の高さは品質の低さを意味しない

John Mueller氏も「ウェブページが人気がないからといって低品質というわけではなく、そのようなコンテンツがサイトの評価を悪くすることはない」と述べています(出典: 海外SEO情報ブログ)。

自サイトの低品質コンテンツ比率を測定する方法

低品質コンテンツの比率を改善するには、まず現状を正確に把握する必要があります。Google公式ツールを活用した測定手順を示します。

Google Search Consoleでインデックス状況を確認する

手順:

  1. Google Search Consoleにログイン
  2. 左メニュー「インデックス作成」→「ページ」をクリック
  3. 「ページがインデックスに登録されなかった理由」セクションを確認
  4. 「クロール済み - インデックス未登録」のページ数を確認

「クロール済み - インデックス未登録」のページは、Googleがクロールしたにもかかわらずインデックスに値しないと判断したページです。このページ数がインデックス済みページ数に対して多い場合、サイト全体の品質に問題がある可能性を示唆しています。

また、「検索パフォーマンス」レポートでクリック数ゼロのページを抽出することも有効です。過去12ヶ月間でオーガニック検索からの流入がまったくないページは、低品質コンテンツの候補として精査する価値があります。

GA4でページ単位のパフォーマンスを可視化する

Google Analytics 4(GA4)では、以下の手順で低パフォーマンスページを特定できます。

手順:

  1. GA4にログイン
  2. 「レポート」→「エンゲージメント」→「ページとスクリーン」を開く
  3. フィルタで「セッションのデフォルトチャネルグループ = Organic Search」を適用
  4. 「セッション数」の降順で並べ替え、セッション数が極端に少ないページを一覧化

GA4の「エンゲージメント時間」も重要な指標です。平均エンゲージメント時間が極端に短い(10秒未満など)ページは、コンテンツがユーザーの期待に応えられていない可能性があります。

スプレッドシートで低品質ページ比率を算出する手順

Search ConsoleとGA4のデータを組み合わせ、スプレッドシートで低品質コンテンツ比率を算出する具体的な手順です。

ステップ1: データをエクスポート

  • Search Console「ページ」レポートからインデックス済みURL一覧をエクスポート
  • Search Console「検索パフォーマンス」レポートから各URLのクリック数・表示回数をエクスポート(過去12ヶ月)
  • GA4「ページとスクリーン」レポートからオーガニック流入セッション数をエクスポート

ステップ2: 低品質候補を判定

以下の条件に複数該当するページを「低品質候補」としてフラグ付けします。

判定条件しきい値の目安
過去12ヶ月のオーガニッククリック数0回
Search Console表示回数に対するCTR1%未満
GA4平均エンゲージメント時間10秒未満
「クロール済み - インデックス未登録」に該当該当する

ステップ3: 比率を算出

低品質コンテンツ比率(%)= 低品質候補ページ数 ÷ インデックス済みページ総数 × 100

この比率が全体の20〜30%を超えている場合は、サイト品質の改善を優先的に検討すべきです。ただし、この数値はあくまで実務上の目安であり、Googleが公式に定めた基準ではありません。

低品質コンテンツ比率の改善アプローチ4選

低品質コンテンツの対処には、ページの状態と改善可能性に応じて適切な方法を選択する必要があります。

リライトで品質基準を引き上げる

適しているケース: テーマに需要があり、情報を追加・更新すれば検索意図を満たせるページ

リライト時に意識すべきポイントは以下の3つです。

  1. 検索意図との整合性: 対象キーワードで実際に上位表示されているページの構成・深さを確認し、不足している情報を特定する
  2. 独自データの追加: 自社の調査データ、運用実績、専門家のコメントなど、他サイトにはないオリジナルの情報を加える
  3. E-E-A-Tの強化: 執筆者のプロフィール、参照元の明記、実体験にもとづく記述の追加

noindexタグでインデックスから除外する

適しているケース: サイト運営上必要だが検索流入は不要なページ(社内向けページ、規約ページのバリエーション等)

HTMLの<head>セクションに以下のメタタグを追加します。

<meta name="robots" content="noindex">

noindexを設定すると、そのページはGoogleの検索結果に表示されなくなります。サイトワイド品質シグナルの算出対象からも除外されるため、低品質ページがドメイン全体の評価を押し下げるリスクを軽減できます。

canonicalタグで評価を統合する

適しているケース: 類似コンテンツが複数URL存在し、重複が発生しているページ

重複ページの中で最も品質の高い正規URLを選び、他のURLには以下のcanonicalタグを設定します。

<link rel="canonical" href="https://example.com/正規URL/">

ECサイトのカラーバリエーションページや、パラメータ付きURLで同一コンテンツが生成されるケースで特に有効です。

不要なページを削除する

適しているケース: 情報が完全に陳腐化している、リライトしても検索流入が見込めない、サイト運営上も不要なページ

削除する際は、以下の点に注意が必要です。

  • 被リンクを受けているページは、リダイレクト(301)で関連する別ページに転送する
  • Search Consoleの「削除」ツールで一時的にインデックスから除外した後、サーバーから物理的に削除する
  • 削除によるトラフィック変動を最低3ヶ月間モニタリングする(GoogleのDanny Sullivan氏は「回復に特定の期間は存在しない」「数ヶ月にわたってシグナルが適用される可能性がある」と述べています)

対処法の選択フローチャート

低品質と判定されたページ
  ├─ サイト運営上、ページの存在は必要か?
  │    ├─ YES → noindexを設定
  │    └─ NO
  │         ├─ テーマに検索需要はあるか?
  │         │    ├─ YES → リライトで品質を向上
  │         │    └─ NO → 削除(被リンクがあれば301リダイレクト)
  │         └─ 類似ページと重複しているか?
  │              └─ YES → canonicalタグで統合

コンテンツプルーニングの実践事例と効果

コンテンツプルーニング(Content Pruning)は、サイト内の低品質・低パフォーマンスページを計画的に削除・統合し、サイト全体の品質を引き上げる施策です。

大規模削除後にオーガニックトラフィックが増加した事例

テクノロジーメディアのCNETは、2023年に大量のページを削除するコンテンツプルーニングを実施しました。その結果、推定月間オーガニック訪問数が約1,900万から約2,450万へと約29%増加しています(出典: SEO.ai)。

この事例が示すのは、低品質ページの削除によってGooglebotのクロール効率が改善し、残された高品質ページへのクロールバジェットが集中した結果、検索評価が向上した可能性です。

また、Home Science Toolsのケースでは、ブログ全体の約10%にあたる約200ページを削除しました。削除直後はキーワード獲得数が一時的に減少したものの、90日後には削除前を上回り、その後も安定的に成長を続けています(出典: GoInflow)。

判断を誤った削除でトラフィックが大幅に減少した事例

一方で、安易なページ削除は重大な損失を招くこともあります。SEOコンサルタントのGlenn Gabe氏は、文字数のみを基準にページを一括削除した結果、オーガニックトラフィックが大幅に減少した事例を複数報告しています。特に、「1,000語未満のページはすべて低品質」と機械的に判断するアプローチは、検索意図を満たしている短いページまで削除してしまうリスクがあります(出典: GSQI)。

文字数の多少だけで品質を判断してはならない好例です。短いページでも検索意図を適切に満たし、ユーザーに価値を提供しているのであれば、削除は逆効果となります。

コンテンツプルーニングの成否を分けるポイント

成功パターン失敗パターン
データにもとづいて低品質ページを個別に判定文字数・公開日など単一指標で機械的に選別
削除前に被リンク・流入実績を確認被リンク付きページを301リダイレクトなしで削除
段階的に削除し、効果を検証しながら進める一度に大量のページを削除
削除後のモニタリング体制を整備削除後の影響を追跡しない

低品質コンテンツを生み出さないための運用体制

既存ページの改善だけでなく、今後の制作プロセスで低品質コンテンツの発生を防ぐ仕組みづくりが重要です。

E-E-A-Tを軸にしたコンテンツ制作フロー

コンテンツ制作時に以下のチェック項目を設けることで、品質の底上げが可能です。

フェーズチェック項目
企画段階ターゲットキーワードの検索意図を調査し、上位記事が提供していない独自の価値を定義しているか
執筆段階一次ソース(公式ドキュメント、調査データ)を引用しているか。執筆者の経験・専門知識が反映されているか
レビュー段階事実誤認がないか、検索意図に対して十分な深さがあるか、E-E-A-Tの観点で問題がないかを第三者が確認しているか
公開後公開から3ヶ月後・6ヶ月後にSearch Console/GA4でパフォーマンスを確認し、必要に応じてリライトを実施しているか

定期的な棚卸しで品質を維持する仕組み

コンテンツの品質は公開時がピークではなく、時間の経過とともに劣化します。法改正、ツールのアップデート、市場動向の変化などにより、かつては正確だった情報が古くなることは避けられません。

四半期ごと(年4回)に以下の棚卸しを実施することで、低品質コンテンツの蓄積を防止できます。

  1. パフォーマンス評価: Search Consoleのクリック数・表示回数で前四半期と比較し、大幅に低下したページを抽出
  2. 情報鮮度の確認: 公開から1年以上経過した記事の事実関係をレビューし、更新が必要な箇所を特定
  3. 重複チェック: 類似テーマの記事が増えていないか確認し、必要に応じてcanonicalや統合を実施
  4. 対処の決定: 各ページについてリライト・noindex・削除のいずれかを決定し、実行スケジュールを策定

まとめ

Googleは低品質コンテンツの比率に関する具体的なしきい値を公表していません。しかし、サイトワイド品質シグナルは確実に存在し、2024年3月にヘルプフルコンテンツシステムがコアランキングに統合されたことで、サイト全体の品質がこれまで以上に重視される状況です。

低品質コンテンツへの対応は、以下の3ステップで進めるのが効果的です。

  1. 現状の可視化: Search ConsoleとGA4を使い、低品質コンテンツの比率を数値で把握する
  2. 優先度の決定: データにもとづいてリライト・noindex・canonical・削除を振り分ける
  3. 継続的な品質管理: 四半期ごとの棚卸しで新たな低品質コンテンツの蓄積を防ぐ

CNETの事例のように適切なプルーニングでトラフィックが改善するケースもあれば、機械的な一括削除でトラフィックを大きく失ったケースもあります。重要なのは「何%だから安全」という基準を求めることではなく、ページごとにユーザーへの提供価値を見極め、根拠あるデータにもとづいて判断することです。