オウンドメディアを運営しているのに、検索順位は高いままなのに流入が減っている、と感じていませんか。
その違和感は偶然ではありません。検索エンジンは今、リンクを並べる存在から「答えを生成するAI」へと急速に変化しています。日本ではゼロクリック検索が6割を超え、読まれることよりも「AIに正しく理解・引用されること」が成果を左右する時代に入りました。
本記事では、SEOの延長線では気づけないLLMO時代特有のリスクと、オウンドメディア運営者が陥りがちなアンチパターンを整理します。技術設定、コンテンツ戦略、法的責任、KPI設計まで俯瞰することで、AIに信頼される情報源へ転換するための視点が得られます。
検索エコシステムの変化とSEOからLLMOへの転換
2024年から2025年にかけて、検索エコシステムは構造そのものが変化しました。従来のSEOは、検索結果ページでの順位向上とクリック獲得を目的として最適化されてきましたが、現在は**検索結果が「答え」を提示する場へと変質**しています。
GoogleのAI OverviewやChatGPT、Perplexityのような生成AIは、リンク一覧ではなく、ユーザーの質問に対する直接的な回答を生成します。その結果、ユーザーはWebサイトを訪問せずに意思決定を完了するケースが急増しています。
デジタル調査機関の報告によれば、日本市場におけるゼロクリック検索の割合は約63%に達しており、これは検索の過半数が「クリックを前提としない」行動であることを示しています。
| 項目 | 従来のSEO | LLMO時代 |
|---|---|---|
| 最適化対象 | 検索順位 | AIの回答内容 |
| 成果指標 | クリック数・PV | 引用・言及・正確性 |
| ユーザー行動 | リンクを比較して遷移 | 回答を読んで完結 |
この変化の本質は、「検索エンジンに評価される」から**「AIに理解され、信頼される」**への転換です。大規模言語モデルは、ページの網羅性や被リンク数よりも、情報の明確さ、一貫性、検証可能性を重視します。
OpenAIやAnthropicの研究者が指摘しているように、LLMは曖昧で冗長な文章よりも、結論が明確で構造化された情報を優先的に参照します。従来型SEOで有効だったキーワードの過剰な網羅や長文化は、かえってノイズとして扱われるリスクがあります。
この流れの中で、オウンドメディアの役割も変わりました。もはやトラフィック獲得装置ではなく、AIが回答を生成する際の「知識の参照元」として機能することが求められています。
実際、Bain & Companyは、AIが提示する回答内で引用されたブランドは、クリックがなくても購買検討の初期段階に強い影響を与えると分析しています。これは、ユーザーがAIを「信頼できる助言者」と認識し始めていることの表れです。
検索エコシステムの変化は一過性のトレンドではありません。**SEOからLLMOへの転換は不可逆的**であり、今後のオウンドメディア運営では、AIにとっての正確な情報提供者であるかどうかが、ブランド価値を左右する前提条件となります。
日本市場で進行するゼロクリック検索とオウンドメディアへの影響

日本市場では、検索行動そのものが静かに、しかし決定的に変わりつつあります。2025年時点で、日本のGoogle検索におけるゼロクリック検索率は約63%に達すると推計されています。これは、検索結果ページを見ただけで疑問が解消され、ユーザーがWebサイトへ遷移しないケースが過半数を占めていることを意味します。従来の「検索順位が高ければ流入が増える」という前提は、もはや成立しなくなっています。
背景にあるのは、GoogleのAI Overviewをはじめとした生成AI型の検索体験です。Semrushの調査によれば、2025年3月時点でAI Overviewの表示率は13%を超え、情報探索クエリの大半でAIによる要約回答が表示されています。ユーザーはリンク一覧を比較検討する前に、まずAIの回答を読み、そこで満足すれば検索行動を終えてしまいます。
この変化は、オウンドメディアのKPI設計に直接的な影響を与えます。順位やPVが維持、あるいは上昇しているにもかかわらず、クリック数だけが減少する現象は珍しくありません。Bain & Companyも、ゼロクリック環境では「流入の減少=マーケティング効果の低下」と短絡的に結論づけることが危険だと指摘しています。実際には、AI回答内でブランド名や自社データが引用・言及されることで、認知や信頼が形成されているケースが増えています。
| 従来の検索 | 現在の検索 | オウンドメディアへの影響 |
|---|---|---|
| リンク一覧中心 | AI回答中心 | クリック前提の設計が崩壊 |
| 順位=成果 | 回答内引用=成果 | KPIの再定義が必要 |
| 比較・回遊 | 即時理解 | 結論先出し型が有利 |
特に日本では、検索エンジン利用が生活インフラとして深く根付いているため、この影響が顕著です。AI Overviewは事実関係を端的にまとめる傾向があり、冗長な導入や結論を引き延ばす構成の記事は、AIにとって参照価値が低いと判断されやすくなります。その結果、検索結果に表示されていても「読まれない」「クリックされない」状態が常態化します。
- PVは減っているが指名検索は増えている
- AI回答で社名だけは頻繁に言及される
- 問い合わせ時に「AIで見た」と言われる
こうした兆候は、ゼロクリック検索がオウンドメディアの価値を奪っているのではなく、価値の現れ方を変えていることを示しています。重要なのは、ユーザーがサイトに来る前の意思決定プロセスに、どれだけ正確に関与できているかです。AIにとって信頼できる情報源として認識されるかどうかが、日本市場におけるオウンドメディアの存在感を左右する時代に入っています。
クローラー制御の誤解が招く技術的リスク
クローラー制御は本来、検索エンジンやAIに対して情報の公開範囲を調整するための手段ですが、誤解に基づいた設定はデジタルプレゼンスそのものを失う技術的リスクを伴います。特に2024年以降、生成AIと検索が融合した環境では、従来のSEO常識だけで判断することが危険になっています。
| 誤解されやすい設定 | 運営者の意図 | 実際に起こるリスク |
|---|---|---|
| GPTBotやGoogle-Extendedの全面ブロック | AI学習からの除外 | AI検索や生成回答で参照されなくなる |
| nosnippetのサイト全体適用 | 内容の転載防止 | CTR低下とAI引用機会の消失 |
| Bing関連の管理放置 | Google重視 | ChatGPT検索結果での不可視化 |
代表的な誤解が、robots.txtで特定のAIクローラーをブロックすれば、生成AIの検索結果や要約表示から完全に除外できるという考え方です。専門家の検証によれば、GoogleのAI Overviewは主に通常のGooglebotが収集したインデックスを基盤としており、Google-Extendedをブロックしても表示が止まらないケースが多いと報告されています。
一方で、その設定が将来のAIアシスタントや引用機能への対応範囲を狭める可能性が指摘されています。Bain & Companyの分析では、AI回答経由で参照されたユーザーは、従来検索よりも意思決定に近い行動を取る傾向があるとされています。
また、Bing Webmaster Toolsを未設定のまま放置することも見過ごされがちです。ChatGPTの検索機能がBingインデックスを主要な情報源としている以上、Bing側でインデックス不備があるサイトは、AI検索上では「存在しない」のと同義になります。日本市場でもBingのシェアが15%を超えつつある現状では、これは無視できない損失です。
- AI関連クローラーを一律に拒否する
- 設定の影響範囲を検証せずに適用する
- 検索エンジンごとの役割差を理解しない
Playwireの調査によれば、AI検索や生成回答からの流入は全体の1%未満でも、コンバージョン率が高い傾向があるとされています。クローラー制御は「全か無か」ではなく、学習拒否と検索可視性を分けて設計する技術判断が不可欠です。誤った制御は静かに影響が進行し、気づいた時には修復が難しい不可逆的な損失につながります。
構造化データ不備が引き起こすハルシネーション問題

構造化データの不備は、生成AIが誤った事実関係を補完してしまう最大の温床です。LLMは文章をそのまま理解しているわけではなく、エンティティと関係性の集合として世界を把握しています。そのため、**人間には十分に伝わっているつもりの情報でも、構造化されていなければAIにとっては曖昧な断片**に過ぎません。この曖昧さが、ハルシネーションを誘発します。
特に問題になりやすいのが、Schema.orgの未実装や不完全な実装です。Talonicによれば、LLMは非構造データのみを参照する場合、事実確認よりも確率的補完を優先する傾向が強まると指摘されています。これは、正しい情報が存在していても、機械可読な形で提示されていなければ「存在しないのと同じ」扱いになることを意味します。
実務で頻発するアンチパターンとして、多重H1や論理階層の破綻があります。見た目重視でH1を複数配置したページでは、AIが主題を一意に特定できません。arXivのLLM推論エラー研究でも、見出し構造が崩れた文書は要約精度とエンティティ抽出精度が著しく低下することが示されています。結果として、本文中に書いていない因果関係や結論が生成されるリスクが高まります。
また、著者や組織情報をテキストだけで記載するケースも危険です。例えば「編集部」や会社名のみの表記では、AIはそれを固有の存在として確定できません。Schema.orgのOrganizationやPersonを用い、sameAsで公式サイトやナレッジパネルと紐づけて初めて、AIは一貫したエンティティとして認識します。Schema Appは、ID指定のない組織情報は同名異組織と混同されやすいと警告しています。
| 不備の種類 | AI側で起きる誤認 | 想定される影響 |
|---|---|---|
| Schema未実装 | 著者・組織を推測で補完 | 誤った権威付け |
| Hタグ構造の破綻 | 主題と結論の誤認 | 要約のねじれ |
| @id指定なし | 同名エンティティ混同 | 別企業情報の混入 |
さらに深刻なのが、時間や条件を自然文だけで表現しているケースです。「冬は閉鎖されることがあります」といった表現は、人間には配慮ある文章でも、AIには判断不能です。Futurismが報じた観光案内の事故例でも、曖昧な表現が存在しない場所やルートをAIに生成させる原因になりました。**日付や条件は必ず具体的なデータとして示すこと**が、ハルシネーション防止につながります。
- 人名・組織名はSchemaで明示する
- 見出し階層は意味構造を最優先する
- 期間・条件は数値と日付で示す
オウンドメディアにとって重要なのは、ハルシネーションを「AIの欠陥」と切り捨てない姿勢です。AnthropicのCEOも述べているように、AIの嘘は人間とは異なる形で現れます。その多くは、参照元データの構造的欠陥が引き金です。**構造化データの整備は、SEO施策ではなくリスクマネジメント**として捉える必要があります。
AIが回答エンジンとして使われる時代において、誤った引用や要約はブランド毀損だけでなく、法的責任に発展する可能性もあります。だからこそ、構造化データは「検索のため」ではなく、「誤解されないため」に実装するという視点が、今後のオウンドメディア運営には不可欠です。
量産型コンテンツがAIに評価されなくなった理由
量産型コンテンツがAIに評価されなくなった最大の理由は、生成AI自身が「一般的な情報」をすでに十分理解しているという構造的変化にあります。従来は、検索エンジンに対して網羅性や文字数で優位に立つことが有効でしたが、2025年現在のAI検索や回答エンジンでは、その前提が崩れています。
SemrushのAI Overviews調査によれば、情報収集型クエリの約9割でAI回答が表示され、その多くは外部サイトをクリックせずに完結しています。ここでAIが参照するのは、Wikipedia的な定義の寄せ集めではなく、既存知識に新しい価値を付加できる情報です。量産型コンテンツは、この条件を満たせなくなっています。
| 観点 | 量産型コンテンツ | AIが評価する情報 |
|---|---|---|
| 情報の新規性 | 既知情報の再整理 | 最新データ・一次情報 |
| 内容の粒度 | 誰にでも当てはまる | 具体条件・前提が明確 |
| 引用価値 | AIが自力生成可能 | 参照しないと答えられない |
また、LLMは限られたトークン内で回答を生成するため、情報密度の低い文章は途中で切り捨てられる傾向があります。情報理論の観点では、これは「情報利得が低い」と判断される状態です。LLMランキング要因を分析した専門家の研究でも、冗長で一般論に終始する文章は、RAGプロセスで参照候補から外れやすいと指摘されています。
- 定義だけで終わる「〜とは」記事
- 複数サイトとほぼ同一構成の記事
- 具体的な条件や前提が書かれていない解説
これらは人間の読者にとっても既視感が強く、AIにとってはなおさら「学ぶ必要のない情報」です。Bain & Companyも、ゼロクリック環境ではAIが自前で答えられる情報は外部参照されないと分析しています。
結果として、量産型コンテンツを増やすほど、サイト全体の情報エントロピーが下がり、「この分野で参照すべき情報源ではない」というシグナルをAIに与えてしまいます。AIに評価されないのは技術的な問題ではなく、提供している情報がAI時代の基準で見て不要になったことが本質なのです。
E-E-A-Tと著者情報がLLMOで果たす役割
LLMOにおいてE-E-A-Tは、評価基準というよりもAIが参照可否を判断するための前提条件として機能しています。特に重要なのが、著者情報を通じて「誰の経験・知見なのか」を明示できているかどうかです。LLMは文章そのものだけでなく、その背後にある発信主体の信頼性を総合的に評価します。
GoogleのE-E-A-Tガイドラインや、SemrushのAI Overviews調査によれば、AIが引用する情報源には「実体のある著者」「検証可能な肩書き」「継続的な発信履歴」が共通して見られます。逆に、編集部名義や匿名記事は、内容が正しくてもAIの回答生成では優先度が下がる傾向が指摘されています。
著者情報が果たす役割を整理すると、以下の3点に集約されます。
- Experience:実務経験や一次体験がある人物かどうか
- Expertise:専門分野と執筆内容が一致しているか
- Trustworthiness:所属・実績・他サイトでの言及などが検証可能か
ここで重要なのは、これらを人間向けのプロフィール文だけでなく、AIが理解できる形で提示することです。Schema.orgのPersonやOrganizationを用いて、著者と所属組織、過去の著作や専門領域を構造化することで、LLMは著者を単なる文字列ではなく「エンティティ」として認識します。
| 要素 | 不十分な状態 | LLMOに有効な状態 |
|---|---|---|
| 著者名 | 編集部・匿名 | 実名+一貫した表記 |
| 肩書き | テキストのみ | Schemaで役割・所属を明示 |
| 実績 | 記載なし | 外部媒体・研究・登壇歴など |
また、AnthropicやSchema Appの技術解説によれば、著者情報が曖昧なコンテンツはハルシネーションを誘発しやすいとされています。主語が不明確な断定文は、AIが文脈補完の過程で事実を誤生成するリスクを高めるためです。これは信頼性低下だけでなく、誤引用という形でブランド毀損につながります。
LLMO時代の著者情報は、装飾的なプロフィールではありません。AIに対する責任の所在を示すメタデータです。誰が、どの立場で、どの範囲まで責任を持って発信しているのかを明確にすることが、AIから信頼され、引用されるオウンドメディアの最低条件になっています。
AI誤回答と企業責任──法的リスクの現実
生成AIの誤回答は、もはや技術的な問題にとどまらず、企業責任として現実的な法的リスクになりつつあります。特にオウンドメディアがAIの参照元となる現在、自社発信情報の曖昧さや更新遅れが、第三者への実害や訴訟につながる可能性が指摘されています。
象徴的な事例が、2024年に判決が出たAir Canadaのチャットボット訴訟です。チャットボットが誤った割引条件を案内し、利用者が不利益を被った結果、裁判所は「チャットボットも企業が提供する公式情報チャネルの一部」と判断しました。カナダの法律専門家団体によれば、AIによる案内であっても企業には注意義務があると明確に示された点が重要だとされています。
オウンドメディア運営者にとって深刻なのは、GoogleのAI OverviewやChatGPTの検索回答が、自社記事を根拠に誤情報を生成した場合でも、ブランド名とともに誤回答が拡散される点です。Semrushの調査でも、AI回答内で引用された情報はユーザーの信頼を強く獲得する傾向があり、誤りがあればその反動も大きいと報告されています。
特にリスクが高いのは、規約、価格、提供条件、営業時間など「意思決定に直結する情報」です。これらがページごとに微妙に異なっていたり、更新履歴が不明瞭だったりすると、AIは文脈を補完しようとして誤った結論を生成します。
| 情報の種類 | AI誤回答時の影響 | 企業リスク |
|---|---|---|
| 料金・割引条件 | 誤った購入判断 | 返金・損害賠償 |
| 利用規約・契約条件 | 権利義務の誤認 | 訴訟・行政指導 |
| 場所・時間情報 | 安全上の問題 | 事故・信用失墜 |
米国弁護士協会も、免責事項を設けていても「合理的に正確な情報提供を行う努力」を怠れば責任は免れないとの見解を示しています。つまり、ディスクレーマーの有無よりも、情報整備の実態が問われる段階に入っています。
実務的には、AIに誤読されやすい曖昧表現を減らし、数値や条件を明示することが最優先です。また、自社情報がAI上でどのように回答されているかを定期的に確認し、誤りがあれば速やかに修正・構造化する運用が求められます。
- 意思決定系情報は単一の正本ページに集約する
- 更新日と変更履歴を明示する
- AI検索結果での自社言及を監査する
AI誤回答の時代において、オウンドメディアは単なる集客装置ではなく、企業の公式見解を定義する法的基盤になっています。その認識を欠いた運営こそが、最大のリスクと言えるでしょう。
PV至上主義からの脱却と新しいKPI設計
ゼロクリック検索が常態化した現在、PVを唯一の成功指標とする考え方は、オウンドメディアの成長をむしろ阻害します。日本市場では検索の約63%がクリックされずに完結しているとされており、順位が高くても流入が増えない状況は例外ではありません。**PVの減少=失敗**と短絡的に判断すること自体が、時代遅れのリスクになりつつあります。
重要なのは、ユーザーがサイトに来る前の段階で、どれだけ価値提供ができているかです。Bain & Companyによれば、AI要約や回答画面でブランドに接触したユーザーは、未接触層よりも購買検討が進んでいる可能性が高いとされています。つまり、クリックされなくても、認知や信頼は形成されているのです。
この前提に立つと、KPIは「流入」ではなく「影響度」へと再設計する必要があります。具体的には、AIや検索結果画面内でどれだけ存在感を示せているかを測る指標が中心になります。
| 旧KPI | 新KPI | 評価の視点 |
|---|---|---|
| PV・セッション数 | AI回答内での引用数 | 情報源としての信頼性 |
| CTR | 指名検索数の増減 | ブランド想起の強さ |
| 滞在時間 | Share of Voice | 競合比較での存在感 |
SemrushのAI Overview調査では、生成AIの回答に引用されるページほど、後追いで指名検索が増加する傾向が示されています。これは、ユーザーが「AIで知り、後から公式情報を探す」という行動に移行していることを示唆しています。
また、新KPI設計では定量だけでなく定性の視点も欠かせません。AIがどの文脈で自社を語っているか、誤解や不足がないかを定期的に確認することが、ブランドリスク管理にも直結します。
- AI回答や要約内での言及・引用状況を定点観測する
- 指名検索やブランド関連クエリの推移を見る
- 競合と比較したShare of Voiceを把握する
これらは即効性のある数字ではありませんが、**AI時代のオウンドメディア価値を正しく映す指標**です。短期のPV増減に一喜一憂するのではなく、情報源としての信頼が積み上がっているかを評価軸に据えることが、持続的な成果につながります。
