検索順位は上がっているのに、なぜか流入が増えない。オウンドメディアを運営していると、そんな違和感を覚えたことはありませんか。
その原因は、SEOの失敗ではなく、検索そのものが大きく変わり始めていることにあります。生成AIの普及により、ユーザーはリンク一覧ではなく、統合された「答え」を直接受け取るようになりました。
実際に、検索結果をクリックせずに完結する行動はすでに多数派になりつつあります。こうした環境では、従来のSEO指標だけを追い続ける運用は、成果と結びつきにくくなります。
一方で、AIに引用・推奨される情報源になることで、これまでとは異なる形でブランド認知や信頼を獲得できる可能性も広がっています。後発メディアや専門特化型メディアにとっても、十分に勝機があります。
本記事では、LLMOという新しい考え方を軸に、AIがどのように情報を評価しているのか、そしてオウンドメディアは何を変えるべきなのかを整理します。これからの運用方針を考えるための、実践的な視点を持ち帰っていただければ幸いです。
検索から統合へ:生成AIが変えた情報取得の前提
これまでのWebにおける情報取得の前提は、ユーザーがキーワードを入力し、検索エンジンが返すリンク一覧の中から最適と思われるページを選ぶ、という行動モデルでした。20年以上にわたり、SEOはこの前提の上で進化し、オウンドメディアも「いかに上位表示され、クリックされるか」を競ってきました。
しかし生成AIと大規模言語モデルの普及によって、この前提は大きく揺らいでいます。**ユーザーはリンクを探しているのではなく、答えそのものを求めるようになっています。** PerplexityやChatGPT Search、Google AI Overviewsのようなサービスは、複数の情報源を横断的に読み取り、要点を統合し、一つの回答として提示します。
この変化は「検索から統合へ」というパラダイムシフトとして捉えるべきです。情報はもはや個別ページ単位で消費されず、AIによって分解・再構成され、文脈に沿ったアウトプットとして利用されます。IBMによるRAGの解説でも、生成AIは外部情報を参照しながら回答を構築する仕組みが主流になっていると示されています。
| 従来の検索 | 生成AIによる統合 |
|---|---|
| リンク一覧を提示 | 要点をまとめた回答を提示 |
| クリックが前提 | クリックせず完結することが多い |
| 順位が可視性を左右 | 引用・推奨が可視性を左右 |
実際、この構造変化はデータにも表れています。SparkToroの調査によれば、Google検索の約60%はクリックされずに完結しています。さらにAhrefsは、AI Overviewsの表示によってクリック数が3割以上減少する可能性を示しました。**ユーザー行動が変わった以上、メディア側の評価軸も変えざるを得ません。**
生成AIは、単純に検索順位が高いページをそのまま採用しているわけではありません。WACULの調査では、Google検索順位と生成AIの回答内容の一致率は約12%にとどまりました。これは、AIが「順位」ではなく「意味的な適合性」や「信頼できる情報かどうか」を重視していることを示唆します。
この統合型の情報取得において鍵となるのが、AIにとっての使いやすさです。文章が論理的に整理され、事実や定義が明確で、信頼できる出典に基づいている情報ほど、AIは引用しやすくなります。プリンストン大学らのGEO研究でも、統計データや権威ある引用を含むコンテンツが、生成エンジン上での可視性を高めると報告されています。
つまり、生成AI時代の最初の前提条件は、トラフィックを集めることではありません。**AIが理解し、再利用し、ユーザーに提示したくなる情報であるかどうか**です。この前提を受け入れられるかどうかが、これからのオウンドメディア運用を大きく分ける分岐点になります。
LLMOとは何か?SEOとの決定的な違いを理解する

LLMOとは、Large Language Model Optimizationの略で、生成AIやAI検索エンジンに自社コンテンツが引用・推奨される状態を最適化する考え方です。従来のSEOが「検索結果で上位に表示され、クリックされること」を目的としていたのに対し、LLMOは「AIの回答そのものに組み込まれること」をゴールに据えています。
この違いは、ユーザー行動の変化によって決定的になりました。Google AI OverviewsやChatGPT Search、Perplexityのような生成AIは、複数の情報源を統合し、一つの答えとして提示します。ユーザーはリンク一覧ではなく、最初から整理された回答を受け取るため、**クリックされなくても情報が消費される**構造が前提になります。
プリンストン大学やGoogle DeepMindなどの研究チームによるGEO研究によれば、生成エンジン上での可視性は、従来型SEO施策とは独立して最大40%向上する可能性が示されています。これは、被リンクや検索順位よりも、**意味的な適合性・信頼性・構造化**が重視されていることを示唆します。
| 観点 | SEO | LLMO |
|---|---|---|
| 評価主体 | 検索エンジン | 生成AI(LLM) |
| 成果指標 | 順位・CTR | 引用・推奨 |
| 重視要素 | キーワード・被リンク | 意味理解・権威性 |
例えば、SEOで1位の記事であっても、文脈が曖昧で一次情報や根拠が弱ければ、AIは採用しません。一方で、検索順位が低くても、統計データや公的機関の見解を明確に示した記事は、AIにとって「使いやすい情報源」となります。WACULの調査でも、検索順位とAI回答の一致率は約12%にとどまると報告されています。
つまりLLMOでは、人間の読みやすさだけでなく、**AIが分解・再利用しやすい構造で書かれているか**が問われます。オウンドメディアは、集客装置である以前に、AIにとって信頼できる知識ベースである必要があるのです。
データで見るゼロクリック時代とオウンドメディアの危機
検索結果からの流入が前提だったオウンドメディアの成長モデルは、今まさに限界を迎えています。その背景にあるのが、ゼロクリック検索の常態化です。SparkToro社の調査によれば、2024年時点でGoogle検索の約60%が、検索結果画面だけで完結し、どのサイトもクリックされていません。
ユーザーはリンクを比較検討するのではなく、検索結果上に表示された要約やAI回答を読んで満足しています。これは一時的な変化ではなく、検索体験そのものが「探す」から「答えを受け取る」へ移行した結果だといえます。
| 指標 | 主なデータ | 示唆 |
|---|---|---|
| ゼロクリック検索率 | 約60% | 検索流入前提のKPIが崩壊 |
| AI Overviews表示時のCTR | 最大34.5%減少 | 情報収集型記事ほど影響大 |
Ahrefs社の分析では、GoogleのAI Overviewsが表示されることで、特にノウハウ解説や用語説明といった情報収集型クエリのクリック数が大きく減少する可能性が示されています。つまり、オウンドメディアが最も得意としてきた領域ほど、流入減の打撃を受けやすい構造です。
ここで重要なのは、検索順位を維持・改善しても、必ずしも流入が戻らない点です。検索結果の1位に表示されていても、その上にAI要約が出れば、ユーザーはそちらで意思決定を終えてしまいます。
さらに深刻なのは、SEOの成功とAIでの可視性がほとんど連動していない事実です。WACUL社がChatGPTやGeminiなど複数の生成AIで検証したところ、AIの回答内容とGoogle検索順位の一致率は約12%にとどまりました。
これは、被リンクやドメインパワーを重視する検索エンジンと、文脈適合性や意味的整合性を重視する生成AIとでは、情報評価の基準が根本的に異なるためです。結果として、これまでSEOで優位だったメディアほど、AI時代に相対的な不利を被る可能性があります。
- 検索上位でもAIに引用されないケースが増加
- 流入指標だけではメディア価値を測れない
- AI回答内での言及有無が新たな競争軸に
日本市場でもこの傾向は顕在化しています。MMD研究所の調査では、AIサービス利用経験者のうち6割以上が「AIによる検索機能」を利用しており、従来検索の代替として定着し始めています。ユーザーは自ら情報を探す手間よりも、AIによる要約や提案を重視しているのです。
ゼロクリック時代におけるオウンドメディアの危機とは、流入が減ること自体ではなく、価値を測る物差しが変わったにもかかわらず、従来指標に固執し続けることにあります。今後は、クリックされるかではなく、AIに参照され、引用され、ブランドとして認識されるかが生存条件となっていきます。
AIに引用されるために重要なRAGの仕組み

この見出しがAIに引用されるうえで重要になる理由は、RAGにおける「情報検索フェーズ」が、内容の良し悪し以前に機械が理解・分解・再利用しやすい構造かどうかを厳密に評価している点にあります。LLMは全文を精読するのではなく、数百トークン単位のチャンクとして記事を分割し、意味的に最適な断片だけを拾い上げます。そのため、構造が曖昧な記事は、いくら中身が優れていても検索段階で脱落します。
IBMが公開しているRAGの技術解説によれば、検索対象となるドキュメントは「質問に直接答えている明確な断片」であるほど、高い確率で再利用されるとされています。つまり、1つの段落が1つの問いに答える設計になっているかどうかが、引用可否を左右します。オウンドメディアでは、文章力よりもまず意味の粒度設計が問われます。
実務上、特に効果が高いのが結論先行型の段落配置です。各小テーマの冒頭で定義や結論を提示し、その後に理由や補足を加えることで、最初の数行だけがチャンクとして切り出されても意味が成立します。プリンストン大学らのGEO研究でも、BLUF構造を採用したページは、AI検索における可視性が大きく改善したと報告されています。
- 段落の冒頭に定義・要点を置く
- 1段落1トピックを厳守する
- 指示語や比喩表現を減らし、名詞を明示する
また、RAGでは段落単位で信頼性評価が行われるケースも多く、出典や根拠が明示されていない断片は、注入フェーズで除外される可能性があります。Global CCFのRAG信頼性に関する調査によれば、統計データや公的機関への言及を含むテキストは、含まないものと比べて引用率が有意に高くなっています。
| 構造要素 | AI側の評価 | 運用上の示唆 |
|---|---|---|
| 結論先行の段落 | 高い再利用性 | 定義文を最初の1文に置く |
| 数値・統計の明示 | 事実性が高い | 可能な限り定量化する |
| 曖昧な表現 | 意味解釈が不安定 | 主語と対象を省略しない |
人間向けの読み物としては冗長に感じるほどの明確さが、RAGにおいては武器になります。この見出し直下の内容が、そのまま「答えの部品」として切り出されることを前提に設計することが、AIに選ばれるオウンドメディア運用の第一歩です。
権威性を設計するオーソリティ・エンジニアリング戦略
オーソリティ・エンジニアリング戦略とは、単に良質な記事を書くことではなく、AIが情報源を選別する際に重視する「権威性シグナル」を意図的に設計・強化する取り組みです。GEOに関するプリンストン大学やGoogle DeepMindの研究によれば、生成AIは内容の正確さだけでなく、その情報が「誰によって」「どの文脈で」語られているかを強く評価しています。
特に重要なのが、オウンドメディア単体で完結しない構造を作ることです。AI検索は第三者による評価、いわゆるアーンドメディアを優先的に参照する傾向があると報告されています。これは、企業自身の主張よりも、業界紙や学術機関、公的データといった外部の裏付けを信頼するためです。
実務的には、コンテンツ内での出典設計が中核になります。文化庁や総務省、大学研究機関の公開資料を根拠として引用し、「〜によれば」と明示するだけでも、AIの信頼性スコアは大きく変わります。GEO論文では、統計データや専門家コメントを含むページは、含まないページと比べて生成AIでの可視性が有意に高まったと示されています。
また、著者や監修者の設計も欠かせません。Personエンティティとして一貫した経歴情報がWeb上で確認できると、AIはその人物を専門家として認識しやすくなります。これはGoogleのE-E-A-Tだけでなく、LLMのナレッジグラフ理解とも整合します。
- 公的機関・学術論文・業界団体データを積極的に参照する
- 専門家の実名コメントや監修情報を明示する
- 主観ではなく検証可能な事実を中心に構成する
さらに、日本市場では独自データの価値が際立ちます。MMD研究所の調査のように、国内データは海外AIモデルにとって希少性が高く、引用対象になりやすい傾向があります。自社調査や一次アンケートをHTMLで公開することは、権威性構築の近道です。
| 要素 | AIからの評価 | 実装ポイント |
|---|---|---|
| 外部出典 | 信頼性を強化 | 公的・学術ソースを明記 |
| 著者情報 | 専門性を補強 | 経歴と実績の一貫性 |
| 独自データ | 引用価値が高い | 数値をテキストで提示 |
オーソリティ・エンジニアリングは短期施策ではありませんが、AIにとって「信頼できる情報源」として認知されることで、検索順位に依存しない持続的な露出を実現します。オウンドメディアは発信媒体であると同時に、知識インフラとして設計される段階に入っています。
独自データと一次情報がAI評価を高める理由
生成AIが回答を生成する際、最も重視するのは「どこにでもある情報」ではなく、検証可能で代替不可能な一次情報です。RAG(検索拡張生成)を採用するAIは、複数ソースを横断的に参照しますが、その中で評価が高まるのは、独自データを持つ情報源です。これはAIがハルシネーションを避けるため、事実密度の高い根拠を優先的に注入する設計になっているためです。
プリンストン大学とGoogle DeepMindらによるGEO研究によれば、AIは定量データや一次調査結果を含むコンテンツを、一般論中心の記事よりも高頻度で引用しました。特に「Statistics」を含むページは、ジェネレーティブ・エンジン上での可視性が有意に向上したと報告されています。数字はAIにとって、文脈解釈のブレが少ない強力なシグナルなのです。
独自データが強い理由は、引用の連鎖が生まれる点にもあります。AIは回答生成時に複数の情報源を束ねますが、同一データが他サイトで参照・再引用されている場合、その一次情報源がハブとして認識されやすくなります。これは人間の被リンク評価に似ていますが、AIの場合はリンク数よりも「オリジナルかどうか」がより直接的に効きます。
AIが高く評価する一次情報の代表例
- 自社で実施したアンケート調査やユーザー行動分析
- プロダクト利用ログを集計した統計データ
- 実証実験やA/Bテストの結果
例えばB2B領域では、「◯◯市場の動向まとめ」といった記事よりも、「自社顧客312社を対象にした調査結果」の方が、AI回答内で引用される確率が高まります。WACULの調査でも、検索順位が低いページであっても、独自調査を含む記事がAIに採用されるケースが確認されています。
また一次情報は、エンティティ評価の強化にも寄与します。AIは組織やブランドを「意味のある実体」として理解しようとしますが、その際に「この分野で独自のデータを継続的に出しているか」は重要な判断材料になります。継続的な調査公開は、単発の良記事よりも強い信頼シグナルになります。
| コンテンツ種別 | AIからの評価傾向 | 理由 |
|---|---|---|
| 一般的なまとめ記事 | 低〜中 | 他ソースで代替可能 |
| 独自調査・統計 | 高 | 一次情報で検証可能 |
| 専門家コメント付き分析 | 中〜高 | 権威性と文脈が明確 |
重要なのは、独自データを「見せ方」まで含めて設計することです。表は画像ではなくHTMLのtableで記述し、調査条件や母数を明記します。IBMがRAG解説で指摘するように、構造化された事実ほどAIは正確に取り込みやすくなります。
オウンドメディアが一次情報源になるということは、AIにとってのインフラになることを意味します。トラフィック獲得だけを目的にした記事制作から脱却し、AIが参照せざるを得ないデータを提供する存在へと進化できるかどうかが、これからの評価を大きく左右します。
機械可読性を高めるコンテンツと構造の最適化
生成AI時代のオウンドメディアでは、読みやすさ以上に「機械に正しく読まれるか」が成果を左右します。RAGを採用するAI検索は、ページ全体を情緒的に解釈するのではなく、文書を分解し、意味単位で評価します。そのためコンテンツは、情報の正確性だけでなく、構造そのものが評価対象になります。
IBMによるRAGの技術解説によれば、AIは文章を数百トークン単位のチャンクに分割し、意味的に最も近い断片を検索対象とします。つまり、重要な定義や結論が文章の奥深くに埋もれていると、検索フェーズで拾われない可能性が高まります。
機械可読性を高める第一歩は、結論先行型の構造です。各セクション冒頭で問いに対する答えを明示し、その後に理由や補足を配置します。特に「◯◯とは何か」「なぜ重要か」といった定義文は、見出し直下の最初の1〜2文で完結させることが有効です。
次に有効なのがQ&Aフォーマットです。GEOに関するプリンストン大学らの研究では、質問と回答が明確に対応している文章は、AIが情報ペアとして認識しやすく、可視性が向上することが示されています。
- 見出しは可能な限り疑問文にする
- 直後の段落で定義・結論を簡潔に述べる
- 1トピック1結論を徹底する
また、人間向けには読み飛ばされがちな表や箇条書きは、AIにとって極めて重要な手がかりです。数値、条件、比較要素が整理された構造は、事実性の高い情報として優先的に扱われます。
| 構造要素 | AIにとっての意味 | 最適化のポイント |
|---|---|---|
| 冒頭文 | 回答候補の要約 | 結論・定義を明示 |
| 箇条書き | 要点の抽出 | 3〜5項目に限定 |
| 表データ | 事実・比較の根拠 | 数値はテキストで記述 |
さらに重要なのが、引用と出典の明確化です。Global CCFのTrustworthy RAGに関する調査によれば、信頼できる外部ソースに基づく記述は、RAGの情報注入フェーズで除外されにくいことが示されています。公的機関や学術研究に言及し、「誰の知見か」を文章内で明示することが、機械的な信頼性評価を高めます。
最後に、装飾や演出よりも論理の一貫性を優先する姿勢が不可欠です。ストーリー性は人間には有効でも、AIは評価しません。**一文一義、主語と結論が明確な文章**を積み重ねることが、結果として人間にも理解しやすいコンテンツにつながります。
機械可読性の最適化とは、テクニックではなく設計思想です。AIの認知プロセスを前提に構造を整えることが、これからのオウンドメディアにおける競争力の源泉になります。
日本市場で注意すべき法的リスクとブランド保護
日本市場でオウンドメディアを運営する際、AI時代特有の法的リスクとブランド保護の視点は避けて通れません。特に生成AIやRAGを前提とした情報流通では、従来のSEOでは意識されにくかったリスクが顕在化しています。
まず重要なのが著作権です。文化庁の見解や法曹界の議論によれば、日本の著作権法第30条の4はAI学習を想定した柔軟な規定である一方、RAGのように既存コンテンツを参照し、その表現が直接出力に反映される場合は「享受目的」が併存すると判断される余地があります。自社オウンドメディアがAI回答の情報源として引用されること自体は問題ありませんが、逆に自社AIが他社記事を過度に再現すれば、権利侵害の当事者になる可能性があります。
| リスク領域 | 具体例 | ブランドへの影響 |
|---|---|---|
| 著作権 | 他社記事の表現をAIが再出力 | 法的責任・信用低下 |
| 誤情報 | AIによる事実誤認の拡散 | ブランド毀損 |
| セキュリティ | プロンプトインジェクション | 不正回答・炎上 |
次にブランド保護の観点では、ハルシネーション対策が極めて重要です。ITmediaが報じた京都市の事例のように、AIが生成した誤情報が拡散され、自治体自ら注意喚起に追い込まれるケースも現実に起きています。AI検索や生成回答の中で、自社ブランドが誤った文脈で語られること自体が reputational risk になると認識すべきです。
そのためオウンドメディア運営では、事実確認プロセスの明示や専門家監修の表示が、単なる信頼性向上施策ではなく法的・倫理的な防御線になります。さらにAWSのセキュリティ研究が指摘するように、外部投稿やUGCをRAGに取り込む場合、悪意ある指示文が混入するリスクも否定できません。
- AIが参照・出力できる情報源を明確に限定する
- 誤情報が生じた際の訂正・告知フローを整備する
- 編集責任の所在を明確にし、透明性を確保する
日本市場では、法令遵守と同時に「誠実な情報発信者であるか」が厳しく見られます。AIに選ばれるための最適化と、人から信頼され続けるブランド防衛は表裏一体であると理解することが不可欠です。
