実装・技術解説 2026.03.18 20 min read

AIに引用されるサイト、基本設定8項目チェックリスト【実装記事つき】

AIに引用されるサイト、基本設定8項目チェックリスト_サムネ
OBS-LOG / 2026.03.18
TABLE OF CONTENTS

AIに引用されているサイトと、されていないサイト。何が違うのか気になりませんか。

コンテンツの質だけじゃないんです。実は「AIに読んでもらうための設定」が、そもそもできていないサイトが多い。

robots.txtの書き方、llms.txtの有無、JSON-LDの実装——知っていますか?ひとつでも「よくわからない」があれば、AIクローラーがサイトをうまく読めていない可能性があります。

この記事では、AI観測ラボが実験・検証してきたデータをもとに、今すぐ確認できる基本設定8項目をチェックリスト形式でまとめました。「全部できてる」なら、それだけで多くのサイトより一歩リードしています。

この記事でわかること|📖:約6分

  • AIクローラーに読まれるサイトに必要な基本設定8項目
  • 各設定が「なぜ必要か」をわかりやすく解説
  • 自分のサイトが今どこまで対応できているか確認できる
  • 各項目の詳細記事へのリンクつき

なぜ「設定」がAI引用に関係するのか

AIクローラーは、人間と同じようにサイトを読んでいるわけではありません。
ページを訪れたとき、まず「このサイトは読んでいいか」「どのページが重要か」「この情報は何を意味しているか」を、設定ファイルや構造化データから判断します。

どれだけ良い記事を書いていても、AIクローラーへの入口が閉まっていたり、情報の意味が機械に伝わらない形になっていたりすると、引用される土台に立てません。

逆に言えば、設定さえ整っていれば、AIが読みやすい状態をつくれます。コンテンツの質を上げる前に、まず「読んでもらえる状態か」を確認するのが先決です。

📌 設定とコンテンツ、どちらが先?

設定が整っていない状態でコンテンツを増やしても、AIクローラーに正しく読まれない可能性があります。まず設定を確認してから、コンテンツ改善に進むのが効率的です。

基本設定8項目チェックリスト

以下の8項目が、AIクローラーに正しく読んでもらうための基本設定です。ひとつずつ確認してみてください。

AIに引用されるサイトの基本設定8項目

1

robots.txt|AIクローラーへの入口を開ける

2

llms.txt|AIに「サイトの地図」を渡す

3

メタタグ|AIに記事の中身を正確に伝える

4

OGP|SNSとAIの両方に情報を届ける

5

JSON-LD|情報の意味をAIに正確に伝える

6

セマンティックHTML|ページの構造をAIに伝える

7

表示速度|クロールを途中で止めない

8

E-E-A-T|AIに「信頼できる発信者」と判断してもらう

それぞれの設定について、何をするのか・なぜ必要なのかを順番に解説します。

① robots.txt|AIクローラーへの入口を開ける

robots.txtとは、サイトのルートディレクトリに置くテキストファイルのことです。「このサイトにどのクローラーが入っていいか」「どのページを読んでいいか」を伝える、いわばサイトの入口にある案内板です。

AIクローラーも、サイトを訪れるとまずrobots.txtを確認します。ここで拒否されていると、どれだけ良いコンテンツがあっても読まれません。意図せずAIクローラーをブロックしているサイトは、思っているより多いです。

✅ 確認ポイント

  • GPTBot・ClaudeBot・Google-Extendedfなど主要AIクローラーがブロックされていないか
  • Disallow: / になっていないか(全クローラー拒否の設定)
  • サイトマップのURLが記載されているか

robots.txtの具体的な書き方と、AIクローラーごとの許可・拒否設定の実例は以下の記事で詳しく解説しています。


🔧 実装ガイド
AIクローラーの許可・拒否設定【robots.txt実例付き】
GPTBot・ClaudeBot・Amazonbotなど主要AIクローラーの設定実例をまとめています。

② llms.txt|AIに「サイトの地図」を渡す

llms.txtとは、サイトのルートに置くテキストファイルのことです。「このサイトにはどんなコンテンツがあるか」「どのページを優先して読んでほしいか」をAIに向けて書いておく、いわばサイトの案内図です。

robots.txtが「入っていいか・ダメか」を伝えるのに対して、llms.txtは「入ったあと、どこに何があるか」を伝える役割を持ちます。

ただし、正直にお伝えすると、llms.txtはすべてのAIクローラーが読むとは限りません。AI観測ラボがllms.txtを設置して7日間のサーバーログを観測した実験では、主要AIクローラーがllms.txtを読みにきたログは確認できませんでした。

⚠️ llms.txtについての現実

現時点(2026年3月)では、llms.txtを読んでいるAIクローラーは限定的です。ただし、設置しても評価が下がることはなく、今後の標準化に備えた「保険」として機能します。コストが低いので、やっておいて損はありません。

✅ 確認ポイント

  • サイトのルートURL(例:yourdomain.com/llms.txt)でファイルが表示されるか
  • サイトの概要・重要ページへのリンクが記載されているか
  • Markdown形式(# 見出し・- リスト)で記述されているか

llms.txtの具体的な書き方・設置方法・AI観測ラボの実験データは以下の記事でまとめています。


🔧 実装ガイド
llms.txtの書き方【2026年完全版】実装コード付き
書き方の基本から、実際にAIクローラーが読みにきたかの検証データまで解説しています。

③ メタタグ|AIに記事の中身を正確に伝える

メタタグとは、HTMLの<head>内に書く、ページの情報をまとめた短いコードのことです。ページ本文には表示されませんが、検索エンジンやAIクローラーが「このページは何についての記事か」を判断するときに読む、いわばページの裏書きです。

特に重要なのがtitleタグとmeta descriptionです。タイトルはページの題名、ディスクリプションはページ内容の要約をAIに伝えます。ここが曖昧だと、AIがページの主題を誤って解釈したまま引用する可能性があります。

✅ 確認ポイント

  • titleタグにキーワードが含まれているか(目安:30〜60文字)
  • meta descriptionが各ページごとに設定されているか(目安:70〜120文字)
  • すべてのページで同じdescriptionが使いまわされていないか
  • noindexタグが意図せず設定されていないか

メタタグのAI向け最適化の具体的な書き方は以下の記事で解説しています。


🔧 実装ガイド
【2026年版】AIクローラーに最適化されたメタタグの書き方
titleとmeta descriptionの書き方から、AIに誤解されないための設定まで解説しています。

④ OGP|SNSとAIの両方に情報を届ける

OGPとは「Open Graph Protocol」の略で、ページがSNSでシェアされたときにタイトル・説明・画像をきれいに表示するための設定です。FacebookやXでリンクを貼ったとき、カード形式でページ情報が表示されるのはOGPのおかげです。

「SNSの設定なのに、なぜAI引用に関係するのか」と思うかもしれません。AIクローラーはページを読むとき、本文だけでなく<head>内の情報もあわせて解析します。OGPのog:titleog:descriptionは、AIがページの主題と信頼性を判断する材料のひとつになります。

また、OGP画像が設定されているかどうかは、ページが「きちんと管理されているサイト」かどうかをAIが判断するひとつのシグナルにもなります。画像が未設定のままだと、サイト全体の印象として「管理が行き届いていない」と解釈されるリスクがあります。

✅ 確認ポイント

  • og:title・og:description・og:imageの3つが全ページに設定されているか
  • og:imageに実際に存在する画像URLが指定されているか(1200×630px推奨)
  • og:typeが記事ページでは「article」になっているか
  • og:urlにページの正規URLが設定されているか

OGPがAIの評価に与える影響と、設定方法の詳細は以下の記事で解説しています。


🔧 実装ガイド
「なんとなく設定した」OGPがAIの評価を左右していた
OGPの基本設定から、AIの評価に影響するポイントまで実例つきで解説しています。

⑤ JSON-LD|情報の意味をAIに正確に伝える

JSON-LDとは、ページに書かれた情報の「意味」をAIや検索エンジンに伝えるための構造化データです。HTMLの<head>内に<script type="application/ld+json">という形で記述します。

たとえば、ページに「2026年3月18日」と書いてあっても、AIはそれが公開日なのか、イベントの日付なのか、更新日なのかを本文だけでは判断できません。JSON-LDを使うと「これは記事の公開日です」「著者はこの人物です」「このサイトの運営者はこの組織です」という意味をコードで明示できます。

AI引用において特に重要なのが、著者情報と組織情報です。誰が書いたか・どこが運営しているかが機械的に読み取れる状態にあると、AIが信頼できる発信元として認識しやすくなります。

✅ 確認ポイント

  • 記事ページにArticleまたはBlogPostのJSON-LDが設定されているか
  • author・datePublished・publisherの3つが含まれているか
  • トップページや会社概要にOrganizationのJSON-LDが設定されているか
  • Googleのリッチリザルトテストでエラーが出ていないか

📝 記事ページのJSON-LD 最小構成例

{
  "@context": "https://schema.org",
  "@type": "BlogPosting",
  "headline": "記事タイトル",
  "datePublished": "2026-03-18",
  "author": {
    "@type": "Person",
    "name": "著者名"
  },
  "publisher": {
    "@type": "Organization",
    "name": "サイト名"
  }
}

JSON-LDの書き方と、AIに正しく読み取られるための実装方法は以下の記事で詳しく解説しています。


🔧 実装ガイド
Json-ldとは?AIに読まれるための構造化データ書き方
最小構成のコード例から、著者・組織情報の書き方まで実装コードつきで解説しています。

⑥ セマンティックHTML|ページの構造をAIに伝える

セマンティックHTMLとは、「意味を持つHTMLタグ」を正しく使うことです。たとえば、記事本文は<article>、ナビゲーションは<nav>、見出しは<h1><h2>というように、コンテンツの役割に合ったタグを使います。

すべてのレイアウトを<div>で組んでしまうと、AIクローラーはどこが本文でどこがメニューなのかを判断できません。意味のないタグだらけのページは、AIにとって「内容は書いてあるが、構造がわからない文書」になってしまいます。

AI観測ラボの実験では、divタグだらけのノイズが多いHTMLをAIに読ませると、本文の理解精度が下がることを確認しています。セマンティックなHTML構造は、AIが本文を正確に抽出するための土台です。

✅ 確認ポイント

  • 記事本文が<article>タグで囲まれているか
  • 見出しが<h1>→<h2>→<h3>の順番で階層的に使われているか
  • ナビゲーションに<nav>、フッターに<footer>が使われているか
  • レイアウト目的だけの<div>が本文エリアに混在していないか

divタグとセマンティックHTMLの違い、AIの理解精度への影響は以下の2記事で詳しく解説しています。


📖 解説記事
AIはdivが読めない——セマンティックHTMLがAI引用の土台になる理由
なぜdivだらけのHTMLがAIに読まれにくいのか、構造の違いを図解で解説しています。


🧪 AI実験室 #01
ノイズだらけのHTMLをAIに読ませたら、どこまで正確に理解できるのか?
実際にHTMLのノイズ量を変えてAIの理解精度を計測した実験データを公開しています。

⑦ 表示速度|クロールを途中で止めない

表示速度とは、ページが読み込まれるまでにかかる時間のことです。人間のユーザーだけでなく、AIクローラーにとっても表示速度は重要です。ページの読み込みが遅すぎると、クローラーがデータを取得しきれずに途中で離脱することがあります。

AIクローラーは多数のサイトを効率よく巡回するため、レスポンスが遅いページには長く待ちません。サーバーの応答速度(TTFB)が極端に遅いページは、本文を取得される前にクロールが打ち切られるリスクがあります。

また、Googleが定めるCore Web Vitalsの指標は、検索エンジンの評価だけでなく、AI Overviewsへの引用候補としても間接的に影響すると考えられています。表示速度の改善は、AIとGoogle検索の両方に対して効果が働きます

✅ 確認ポイント

  • PageSpeed Insightsでモバイルスコアが50以上あるか
  • TTFB(サーバー初回応答)が1秒以内か
  • 画像が適切に圧縮・WebP化されているか
  • 不要なJavaScriptやCSSが読み込まれていないか

🔗 PageSpeed Insights(無料)

自分のサイトURLを入力するだけでスコアと改善提案が確認できます。

https://pagespeed.web.dev/

AI時代のページ速度の現実と、Core Web Vitalsの見方は以下の記事で解説しています。


📖 解説記事
計測してわかったAI時代のページ速度の現実【Core Web Vitals入門】
実際に複数サイトを計測してわかったスコアの傾向と、優先すべき改善項目を解説しています。

⑧ E-E-A-T|AIに「信頼できる発信者」と判断してもらう

E-E-A-Tとは、Experience(経験)・Expertise(専門性)・Authoritativeness(権威性)・Trustworthiness(信頼性)の頭文字をとったものです。もともとGoogleが検索品質を評価するための基準として定めたものですが、AIが引用先を判断するときにも同様の観点が影響します。

AIは引用するとき、「この情報は誰が書いたのか」「実際の経験に基づいているのか」「信頼できる組織・人物が発信しているのか」を判断しています。どれだけ正確な情報を書いていても、発信者の素性が不明なページより、著者プロフィール・運営者情報・実績が明示されているページの方が引用されやすい傾向があります。

特にAI観測ラボが重視しているのが「経験(Experience)」の部分です。実験データや一次情報を持つコンテンツは、AIが自身のトレーニングデータだけでは補完できない情報として引用しやすい状態になります。一般論を並べた記事より、実測・検証・体験をもとにした記事の方がAIに選ばれる理由はここにあります。

✅ 確認ポイント

  • 著者プロフィールページが存在し、経歴・専門領域が書かれているか
  • 運営者情報・会社概要ページが設置されているか
  • 記事に著者名が表示され、プロフィールページへのリンクがあるか
  • 一次データ・実験結果・実体験など「経験」を示すコンテンツが含まれているか
  • 参照元・出典が明記されているか

E-E-A-TのAI時代における最適化の考え方と実践方法は以下の記事で詳しく解説しています。


📖 解説記事
E-E-A-TをAI時代に最適化する実践ガイド【既存サイト向け】
著者情報・運営者情報の整え方から、一次データを活かしたコンテンツ設計まで解説しています。

8項目、全部できていましたか?

ここまで紹介した8項目をまとめます。

AIに引用されるサイトの基本設定 まとめ

1

robots.txt

AIクローラーへの入口を開ける。意図せずブロックしていないか確認する。

2

llms.txt

AIにサイトの地図を渡す。現時点では読まれるとは限らないが、設置コストは低い。

3

メタタグ

AIに記事の中身を正確に伝える。ページごとに個別設定されているか確認する。

4

OGP

SNSとAIの両方に情報を届ける。og:image未設定のままのサイトは意外と多い。

5

JSON-LD

情報の意味をAIに正確に伝える。著者・組織情報をコードで明示する。

6

セマンティックHTML

ページの構造をAIに伝える。divだらけのHTMLはAIの理解精度を下げる。

7

表示速度

クロールを途中で止めない。TTFBが遅いページは本文取得前に離脱されるリスクがある。

8

E-E-A-T

AIに信頼できる発信者と判断してもらう。一次データと著者情報が鍵になる。

8項目のうち、ひとつでも「できていない」があれば、AIクローラーがサイトを正しく読めていない可能性があります。逆に言えば、全部整っているだけで、設定が不十分な多くのサイトより一歩リードした状態になります。

コンテンツの質を上げる前に、まず「読んでもらえる状態か」を確認してみてください。設定が土台として整ってはじめて、良いコンテンツが正しく届くようになります。

📌 次のステップ

8項目の設定が整ったら、次はコンテンツそのものをAIに引用されやすい構造にしていく段階です。AI観測ラボでは、引用されやすいコンテンツの条件についても実験・検証データをもとに解説しています。

よくある質問

Q. AIクローラーの設定で、一番最初にやるべきことは何ですか?
robots.txtの確認です。どれだけ良いコンテンツがあっても、AIクローラーへの入口が閉まっていれば読まれません。まずrobots.txtを確認して、主要AIクローラーがブロックされていないかをチェックしてください。

Q. llms.txtを設置すれば、AIに引用されますか?
設置だけで引用が増えるわけではありません。AI観測ラボの実験では、設置後7日間のサーバーログを観測しましたが、llms.txtを読みにきたAIクローラーのログは確認できませんでした。ただし設置してもサイトの評価が下がることはなく、コストも低いため、やっておいて損はない設定です。

Q. 8項目すべて対応しないと意味がありませんか?
そんなことはありません。優先度が高いのはrobots.txt・メタタグ・JSON-LDの3つです。まずこの3つを整えるだけで、多くのサイトより読まれやすい状態になります。残りは順番に対応していけば十分です。

Q. 設定が正しくできているか確認する方法はありますか?
各項目ごとに確認ツールがあります。robots.txtはブラウザで「yourdomain.com/robots.txt」を開いて直接確認できます。JSON-LDはGoogleのリッチリザルトテスト、表示速度はPageSpeed Insightsで無料で計測できます。メタタグとOGPはブラウザの開発者ツール(F12)のheadタグ内を確認してください。

Free Diagnostic Tool

あなたのサイトは、
AIに見えていますか?

URLを入力するだけで30秒。8項目を自動診断し、優先度別の改善プランを提示します。完全無料・登録不要。