オウンドメディアを運営していて、「検索流入が伸び悩んでいる」「生成AIに自社記事がまったく参照されない」と感じたことはありませんか。

2024年以降、ユーザーは検索結果を比較するのではなく、AIから直接“答え”を得る行動へと急速に移行しています。この変化は、記事内容そのものだけでなく、「誰が書き、誰が監修しているのか」という情報の価値を大きく押し上げました。

これからのオウンドメディアでは、SEOだけでなく、LLMOやGEOの視点で著者・監修者の専門性と信頼性をAIに正しく理解させることが不可欠です。実際に、AI経由のトラフィックは高い成約率を示すというデータもあり、無視できないチャネルになっています。

本記事では、日本市場特有の監修文化やYMYL領域の事情も踏まえながら、AIに選ばれ、引用される著者・監修者情報の設計方法を体系的に整理します。オウンドメディアの価値を次の段階へ引き上げたい方にとって、実践的な指針となる内容です。

検索から対話へ変わる情報環境とオウンドメディアへの影響

2024年から2025年にかけて、情報の探し方は「検索」から「対話」へと大きく舵を切っています。ユーザーはキーワードを入力して大量のリンクを比較するのではなく、ChatGPTやPerplexity、GoogleのAI Overviewsのような生成AIに自然言語で問いかけ、統合された答えをその場で得るようになりました。この変化は一過性のトレンドではなく、情報接点そのものの再設計を意味しています。

Semrushの調査によれば、LLMを経由したトラフィックは急速に拡大しており、さらに注目すべきは**AI検索経由の訪問者は従来のオーガニック検索と比べてコンバージョン率が約4倍高い**という点です。AIが事前に情報を選別し、信頼できると判断した内容だけを提示するため、ユーザーは比較検討の段階を飛ばし、意思決定に近い状態でサイトに到達していると考えられます。

この環境変化は、オウンドメディアの役割を根本から変えています。これまでの主戦場は検索結果一覧でのクリック獲得でしたが、今後は**AIの回答そのものに引用・参照されるかどうか**が価値を左右します。言い換えれば、ユーザーに読まれる前に、まずAIに選ばれる必要がある時代に入ったのです。

重要なポイント:オウンドメディアは「流入を待つ資産」から「AIが答えを作るために参照する知識基盤」へと位置づけが変わっています。

この違いを整理すると、従来の検索中心モデルと、対話型AI中心モデルでは評価軸が明確に異なります。

観点検索中心対話・AI中心
ユーザー行動キーワード入力と比較自然言語での質問
成果指標順位・クリック引用・要約への採用
重視される要素ページ最適化情報源の信頼性と一貫性

Googleや各種AI検索が採用するRAGの仕組みでは、回答生成前に大量の情報源が評価・再ランク付けされます。その際に問われるのは「どのページか」よりも「誰がその情報を発信しているか」です。検索結果では見えにくかった著者や運営主体の信頼性が、AIの内部では強いフィルタリング条件として機能しています。

オウンドメディアにとってこれは脅威であると同時に大きな機会です。広告や強いドメインを持たなくても、**専門性が明確で、論理的に整理された一次情報**を継続的に発信していれば、AIの回答に組み込まれる可能性が高まります。実際、生成AIはハルシネーションを避けるため、学習データや参照先の中でも信頼度が高いと判断した情報源を優先する設計になっていると、複数の研究や実務者が指摘しています。

検索から対話へという不可逆的なシフトは、オウンドメディアを単なる集客チャネルから、ブランドや専門性を社会に定着させるインフラへと押し上げています。この変化を理解し、AIにとって「参照する価値のあるメディア」になることが、これからの運用責任者に求められる前提条件です。

LLMO・GEOとは何か|SEOとの決定的な違い

LLMO・GEOとは何か|SEOとの決定的な違い のイメージ

LLMOとGEOは、従来のSEOとは前提となるユーザー行動と評価ロジックが大きく異なります。SEOが検索結果一覧に表示されるリンクの中から「クリックされること」を目的としてきたのに対し、LLMO・GEOは**AIが生成する答えの一部として「参照・引用されること」**をゴールに据えています。

背景には、ChatGPTやPerplexity、GoogleのAI Overviewsなど、いわゆる回答エンジンの急速な普及があります。Semrushの調査によれば、LLM経由のトラフィックは今後数年で従来検索を上回る成長が予測されており、さらにAI検索経由の訪問者は、従来のオーガニック検索と比べてコンバージョン率が約4倍高いと報告されています。これは、AIが事前に情報を選別し、信頼性を評価したうえでユーザーに提示しているためです。

この変化を理解するうえで重要なのが、GEOとLLMOの役割の違いです。GEOは、生成AIがコンテンツを正確に読み取り、要約しやすくするための最適化です。論理構造が明確で、主張と根拠が整理されたコンテンツは、AIにとって扱いやすくなります。一方、LLMOはコンテンツそのものではなく、**誰がその情報を発信しているのか**という実体、つまりエンティティの信頼性を高める戦略です。

SEOは「ページの最適化」、GEOは「内容の理解性」、LLMOは「発信主体の信頼性」を最適化する考え方です。

従来のSEOでは、評価の単位はURLでした。しかしLLMOでは、評価の単位が人やブランドといったエンティティに移行します。AIは回答生成時に、RAGと呼ばれる仕組みで外部情報を検索しますが、その際に「信頼できる著者かどうか」が重要なフィルターとして機能します。Search Engine Landなどの専門メディアも、今後は著者の権威性がAI検索における主要シグナルになると指摘しています。

比較軸SEOLLMO・GEO
評価対象ページ・URLエンティティとトピック
主な成果検索順位とクリックAI回答内での引用・言及
信頼性の軸被リンク・ドメイン評価著者の専門性と文脈的一貫性

例えば、SEOでは上位表示されている記事でも、著者情報が不明瞭な場合、AI回答では採用されないケースが増えています。AIはハルシネーションを避けるため、「誰が言っているのか」を明示できる情報源を優先するからです。これはarXivで公開されているGEO関連研究でも、引用元の権威性が生成結果に影響することが示されています。

オウンドメディアの視点で見ると、SEOは依然として重要ですが、それだけでは不十分です。**AIにとって理解しやすい構造を整えるGEOと、信頼できる発信主体として認識されるためのLLMOを組み合わせること**が、これからの情報流通における前提条件になります。

  • SEOは人間の検索行動に最適化する手法
  • GEOはAIの理解と要約を助ける設計思想
  • LLMOは著者・ブランドの信頼性をAIに学習させる戦略

この違いを正しく理解することが、オウンドメディアが「読まれる存在」から「引用される存在」へ進化する第一歩になります。

キーワードではなくエンティティが評価される理由

従来のSEOでは、どのキーワードを含めるかが評価の中心でしたが、回答エンジンの時代ではその前提が大きく変わっています。**現在のAIは、単語そのものではなく「誰が」「何について」語っているのかという実体、すなわちエンティティを評価軸に置いています。**

その背景にあるのが、大規模言語モデルが採用するベクトル検索の仕組みです。GoogleやChatGPTに代表されるLLMは、文章を単なる文字列としてではなく、意味を持つ概念の集合として高次元空間に配置します。たとえば「SEO」「コンテンツマーケティング」「オウンドメディア運営」は、関連性の高いトピックとして近い位置に配置されますが、ここで重要になるのが、それを語る主体がどのエンティティとして認識されているかです。

AIは「正しそうな文章」よりも「信頼できる発信主体からの情報」を優先的に参照します。

Search Engine LandやGoogleの技術解説によれば、生成AIはハルシネーションを避けるため、ナレッジグラフ上で実体が確認できる人物や組織の情報を重視するとされています。これは、RAGと呼ばれる検索拡張生成のプロセスで、再ランク付け時に著者エンティティの信頼性がフィルタとして機能しているためです。

評価の視点キーワード中心エンティティ中心
主な対象ページ内の単語人物・組織・概念
信頼性判断被リンクや文字一致専門性・実績・関係性
AIでの扱い文脈が曖昧になりやすい意味と出典が明確

たとえば同じ内容の記事でも、「匿名のライター」が書いたものと、「特定分野で実績のある専門家」が書いたものでは、AIが引用候補として扱う優先度が変わります。Semrushの分析でも、AI経由で引用されやすいコンテンツは、著者情報が明確で専門領域との整合性が高い傾向にあると報告されています。

つまり、これからのオウンドメディア運営では、キーワードを最適化するだけでは不十分です。**誰がその知識を持ち、どの領域の専門家として認識されているのかを、AIが理解できる形で示すこと**が、評価と引用を獲得する前提条件になっているのです。

AI検索における引用経済と著者信頼性の関係

AI検索における引用経済と著者信頼性の関係 のイメージ

AI検索における引用経済では、コンテンツそのもの以上に「誰の情報か」が価値の源泉になります。従来の検索では、上位表示されたページがクリックされることで評価が完結していましたが、回答エンジンではAIが複数の情報を統合し、その根拠として信頼できる著者や組織を明示的に引用します。

このとき重要になるのが、著者信頼性が単なる肩書きではなく、AI内部で数値的・構造的に評価されている点です。Search Engine LandやBacklinkoの解説によれば、生成AIはハルシネーションを抑制するため、過去に正確性が担保されてきた著者エンティティを優先的に参照する傾向があります。

評価観点AI検索での意味著者信頼性との関係
引用頻度回答の根拠として使われた回数専門家としての再利用価値を示す
引用文脈どのテーマで引用されたか専門分野の一貫性を評価
明示的言及氏名や所属が示されるかエンティティとしての確立度

特にRAGを採用するAI検索では、検索段階で数千の候補文書が抽出された後、再ランク付けで信頼性が精査されます。Googleの技術解説によると、この工程で著者情報が不十分なコンテンツは、内容が正しくても生成フェーズに進めないケースがあります。

オウンドメディアにとって示唆的なのは、無署名記事や編集部名義の記事は、引用経済では不利になりやすいという点です。AIは「編集部」を一つの専門家として理解できず、評価を蓄積できません。一方で、継続的に同一テーマを発信する実名著者は、引用されるたびに信頼スコアが強化されます。

重要なポイント:AI検索では、著者はページの付属情報ではなく、引用される主体そのものとして評価されます。

日本市場では、YMYL領域を中心に監修者文化が根付いています。医師や弁護士といった専門家が明示されている記事は、AIにとっても安全性の高い情報源として扱われやすく、実際に医療・法律系の質問では専門家名が付いたサイトが引用されやすい傾向が確認されています。

  • 著者名と専門分野が一貫している
  • 第三者メディアや公的機関からの言及がある
  • 過去に同分野での引用実績がある

これらが揃うことで、著者は引用経済の中で「再利用される知識ユニット」として認識されます。オウンドメディア運営者は、記事単位のSEOではなく、著者という長期資産を育てる視点を持つことが、AI検索時代の競争優位につながります。

日本市場における監修者文化とYMYL領域の重要性

日本市場において、監修者文化がこれほどまでに根付いた背景には、YMYL領域に対するユーザーと検索エンジン双方の強い警戒心があります。

医療、金融、法律といった分野では、情報の誤りが生活や人生に直接的な影響を及ぼすため、日本のユーザーは一貫して「誰がその情報を保証しているのか」を重視してきました。

この傾向は、GoogleがYMYL領域で専門性・信頼性を厳しく評価するようになった流れと合致し、日本独自の「監修」という役割を進化させてきたのです。

観点日本市場海外市場
専門家の関与監修者として明示する文化が定着執筆者本人の権威性を重視
読者の期待資格・肩書きによる保証を重視実績やメディア露出を重視
YMYL対策監修表記が事実上の前提条件必須ではない場合も多い

ウィルゲートやPLAN-Bの調査によれば、日本のYMYLジャンルでは専門家監修がないだけで検索順位やCTRが不利になるケースが確認されています。

これはSEOの文脈だけでなく、AI検索や回答エンジンにおいても同様です。

生成AIはハルシネーション抑制のため、信頼できる発信主体を優先的に参照しますが、日本語コーパスにおいては「監修者付き記事」が安全な情報源として学習されてきました。

**日本市場では、監修者は単なる装飾ではなく、AIとユーザー双方に対する信頼性の証明として機能します。**

象徴的な事例が、弁護士ドットコムやMedical Noteです。

これらのメディアでは、記事の内容以上に、監修者の資格、所属、専門分野が明確に提示されています。

GoogleナレッジグラフやAI Overviewsが、法律・医療系の質問でこれらのメディアを頻繁に引用するのは偶然ではありません。

  • 監修者の実名と資格が明示されている
  • プロフィールが独立ページとして存在する
  • 専門分野と記事内容の整合性が高い

さらに重要なのは、監修者文化がE-E-A-Tの「Expertise」と「Trustworthiness」を一挙に補完できる点です。

ライターが経験やストーリー性を担い、監修者が専門性と正確性を担保する分業構造は、日本市場において極めて合理的です。

AIにとっても、「経験談」と「専門的裏付け」が明確に分離・統合されたコンテンツは理解しやすく、引用価値が高まります。

今後、AI検索が主流になるほど、日本のYMYL領域では監修者の役割がさらに重みを増すと考えられます。

単に監修者名を記載するのではなく、その人物がどの領域の専門家なのかを一貫して示し続けることが、オウンドメディアの競争力を左右する要素になるのです。

成功するオウンドメディアに学ぶ著者・監修者設計の事例

成功しているオウンドメディアに共通するのは、コンテンツ内容以前に、著者・監修者の設計そのものが戦略として完成している点です。単に名前を載せるのではなく、専門性・実在性・継続性をAIと読者の双方に伝える構造が意図的に設計されています。

代表的な事例の一つが弁護士ドットコムです。法律記事ごとに担当弁護士の顔写真、氏名、所属事務所を明示し、そこから個別のプロフィールページへ遷移できる構造を採用しています。記事単体ではなく「人」を起点に情報が束ねられている点が特徴で、Googleのナレッジグラフにおいても弁護士個人が明確なエンティティとして認識されやすくなっています。AI検索において法律相談の回答ソースとして頻繁に引用される背景には、この徹底した著者設計があります。

メディア名著者・監修者の役割設計上の特徴
弁護士ドットコム弁護士が執筆・解説個人プロフィールをエンティティの起点として統合
経営ハッカー(freee)税理士・会計士が監修監修による信頼担保と事務所サイトとの相互接続
Medical Note医師が監修・解説資格・論文・専門領域を詳細に構造化

freeeが運営する経営ハッカーでは、実務担当者による執筆と、税理士・公認会計士による監修を明確に分離しています。ここで重要なのは、監修者が単なる名前貸しではなく、専門家として独立したプロフィールを持ち、所属事務所の公式サイトとも接続されている点です。これはAIにとって「第三者による品質保証」として機能し、引用時の信頼スコアを高める設計だと考えられます。

医療分野で際立つのがMedical Noteです。医師プロフィールには、所属病院、専門医資格、出身大学、過去の論文情報までが網羅され、診療科や対応疾患も細かく整理されています。研究機関や論文データベースを情報源とするAIにとって、これほど解釈しやすい構造はありません。実際、医療系の質問に対する生成AIの回答では、Medical Noteが根拠ソースとして挙げられるケースが増えています。

成功事例に共通するのは、著者・監修者を「記事の付属情報」ではなく、「信頼の中核アセット」として扱っている点です。

これらの事例から学べる設計ポイントは以下の通りです。

  • 著者・監修者ごとに独立したプロフィールページを持たせる
  • 資格・実績・専門領域を具体的かつ一貫して記載する
  • 外部の権威ある組織やメディアとの関係性を明示する

検索から対話へと情報取得の主戦場が移る中で、AIは「どの記事か」以上に「誰の知見か」を重視します。成功するオウンドメディアは、すでにこの前提に立ち、著者・監修者を中心に据えた設計へと進化しているのです。

Schema.orgで著者をAIに理解させる構造化データ戦略

LLMOの取り組みは、従来のSEOのように順位や流入数だけでは成果を判断できません。**AIの回答文脈の中で、自社や著者がどのように扱われているか**を測定する視点が不可欠です。この考え方を象徴する指標が、近年注目されているShare of Model(SOM)です。

SOMとは、特定トピックについてAIに質問した際、回答内に自社ブランド名や著者名が含まれる割合を指します。検索結果の1位を取ることではなく、**AIの「模範解答」に登場できているか**を評価する指標だと理解すると分かりやすいです。

指標測定対象示唆する意味
Share of ModelAI回答内の言及率トピックにおける権威性
AIサイテーション引用・出典表示信頼できる一次情報源か
指名言及著者名・ブランド名エンティティ確立度

実務では、ChatGPTやPerplexity、Geminiなど複数のAIに対し、「この分野の専門家は誰ですか」「日本で信頼できる解説はありますか」といった質問を定点観測します。Perplexityのように出典を明示するAIでは、**自社記事や著者プロフィールが引用されているか**を確認することが重要です。

加えて、Google検索におけるナレッジパネルの有無も有力な判断材料になります。Googleの公式ヘルプによれば、ナレッジパネルはナレッジグラフ上でエンティティとして認識された結果表示です。著者名検索でパネルが表示され、経歴や所属が正しく出ていれば、**AIと検索エンジンの双方から一貫した理解を得られている**と評価できます。

重要なポイント:LLMOの成果は「人が訪れたか」ではなく、「AIが信頼して取り上げたか」で測ります。

Search Consoleも補助的に活用できます。著者名やブランド名での指名検索が増えている場合、オフページでの言及やAI露出が検索行動に波及している可能性があります。現時点ではAI Overviews由来の流入は明確に分離されていませんが、Google自身が生成AI検索の可視化を進めていることから、今後は重要な観測ポイントになるでしょう。

測定で最も大切なのは、短期的な数値変動に一喜一憂しない姿勢です。SOMやAIサイテーションは、**著者情報の構造化、実績の蓄積、外部からの評価**が積み重なった結果として徐々に現れます。LLMOの評価とは、AIという第三者が下す「信頼の通知表」であり、その変化を継続的に読み解くことが、オウンドメディア運営者の新しい役割になります。

エンティティホームとしての著者プロフィールページ設計

著者プロフィールページは、単なる自己紹介ではなく、LLMや検索エンジンにとっての「公式な正解データベース」として設計する必要があります。これがエンティティホームです。情報が分散しやすい現代において、どこに行けばその人物の正しい情報が揃っているのかを明確に示す役割を担います。

Googleや生成AIは、人物情報に矛盾があると信頼度を下げる傾向があります。KalicubeのJason Barnard氏も、Aboutページや著者ページこそが「あなたが誰であるかを検索エンジンに教える最良の場所」だと指摘しています。オウンドメディア内に一貫性のある著者ページを用意することは、LLMOの基盤そのものです。

重要なポイント:著者プロフィールページは「人に読ませるページ」であると同時に、「AIに定義を与えるページ」として設計します。

エンティティホームとして機能するプロフィールページには、物語性と構造性の両立が求められます。単なる経歴の箇条書きではなく、専門分野に対する考え方や問題意識を文章で示すことで、LLMは著者の思想やスタンスを学習します。これは回答生成時のトーンや引用可否に影響します。

  • 包括的なバイオグラフィ:専門分野、実務経験、価値観を150〜300文字程度で要約します
  • 実績の明示:執筆記事、登壇、論文、メディア掲載をリンク付きで整理します
  • 定量的な信頼指標:業界歴、支援社数、資格年数など数値で示します

特に重要なのが、実績リストの扱いです。外部の権威あるメディアや学術機関へのリンクは、被リンク目的ではなく、AIに対して「どの文脈で評価されてきた人物か」を示すシグナルとして機能します。Search Engine Landなどの解説でも、発リンクによる意味的接続がLLM理解を助けるとされています。

また、実在性を担保する要素も欠かせません。問い合わせ先や所属組織、監修ポリシーへのリンクはTrustworthinessの評価に直結します。YMYL領域では特に、この透明性が引用可否を左右します。

要素AI視点での役割
プロフィール本文専門性・思想・文脈の理解
実績リンク外部評価との意味的接続
連絡先情報実在性・信頼性の担保
構造化データナレッジグラフへの統合

さらに、このページにはSchema.orgのPersonスキーマを実装し、sameAsやknowsAboutを用いて外部IDと概念を結び付けます。これにより、このページが情報のハブであることをAIに宣言できます。SNSプロフィールは補助的な存在であり、仕様変更のリスクを考えると、自社ドメイン内の著者ページをエンティティホームに据えることが最も安全です。

エンティティホームとして設計された著者プロフィールページは、記事単体の評価を超えて、メディア全体の信頼性を底上げするインフラになります。誰が語っているのかを明確にし続けることが、引用されるオウンドメディアへの最短距離です。

AIに評価され続けるための効果測定と新しいKPI

AIに評価され続けるオウンドメディアを運営するためには、従来のPVや検索順位だけでは不十分です。回答エンジン時代では「AIの中でどう扱われているか」を測定する視点が不可欠になります。

特に注目すべきは、AIが回答を生成する際に「誰を参照したか」「どの文脈で引用したか」という評価軸です。これは検索結果に表示されないため見えにくいものの、今後の流入と信頼形成を左右します。

その代表的な指標が、研究者や実務家の間で語られ始めているShare of Model(SOM)です。

重要なポイント
AI時代の効果測定は「順位」ではなく「想起・引用・言及」の割合を追うことが本質です。

SOMとは、特定トピックについてAIに質問した際、自社メディアや著者が回答内に登場する割合を指します。PerplexityやChatGPT、Geminiなど複数のLLMに同一質問を投げ、定点観測で名前や記事が出現する頻度を記録します。

これは引用経済の考え方とも一致します。生成AIはハルシネーションを避けるため、信頼度の高い情報源を繰り返し参照します。SOMが高まるほど、その分野の“標準的な参照先”としてモデル内で固定化されていきます。

実務では以下のようなKPI設計が有効です。

指標測定内容意味
SOMAI回答に含まれる割合モデル内での想起度
AIサイテーション数引用・出典としての言及信頼ソース評価
指名検索増加著者名・ブランド名人間側の認知拡大

Googleのナレッジパネルの出現も重要なシグナルです。検索で著者名を入れた際にパネルが表示される場合、エンティティとして認識された客観的証拠といえます。Google公式ドキュメントでも、ナレッジグラフは信頼性評価の基盤とされています。

補助的にGoogle Search Consoleも活用します。特に著者名や監修者名での表示回数が伸びている場合、AIと人間の双方で評価が進んでいる兆候です。

重要なのは、これらを短期指標として一喜一憂しないことです。SOMやAI引用は数か月単位でじわじわ蓄積される信頼の結果であり、継続的な観測と改善が前提となります。

AIに評価され続けるとは、アルゴリズムを攻略することではありません。測定指標を進化させ、AIが「参照したくなる存在」になれているかを問い続ける姿勢そのものが、最大のKPIです。