アクセシビリティ重視のウェブ制作

チャコウェブ

株式会社CyberCats

受付時間:9:00~17:00(月曜日~金曜日)

中小企業のホームページ制作で事業の価値を引き出します。良いホームページの作り方や運営の方法、集客に役立つヒントをお届けします。

中小企業が今すぐ始めたい、SEO+AI検索対策「LLMs.Txt」入門

中小企業が今すぐ始めたい、SEO+AI検索対策「LLMs.Txt」入門

「AI検索対策しなければ」

このような声が増えてきています。

これまで、多くの企業がGoogleやYahoo!などの検索エンジンで上位表示を狙う「SEO対策」に、一生懸命取り組んできました。
今も「上位を取りたい!」と努力しています。

このようなサイトでは、検索エンジンに理解されやすい構造のファイルを設置しているはずです。
例えば、「robots.txt」や「sitemap.xml」という言葉を耳にしたことはありますか?

このようなファイルは、検索エンジンに対してウェブサイトの構造や、どのページを見てほしいかを伝えるための重要なファイルです。
しかし、近年では検索の仕組みに大きな変化が起きています。

ChatGPTやClaudeなど、AIによる検索が一般的になりつつあり、これまでの検索エンジンとは違う方法で情報が集められるようになってきました。
従来の検索エンジンに比べて、AI検索はサイト内の構造やリンク構造といったSEO要素だけを指標にするわけではなく、より直接的に「コンテンツの内容と要点」を理解しようとします。

AIはページ全体に含まれるコードや装飾要素から情報を的確に抽出するのが苦手な場合があり、普通の検索エンジンとは違う観点での”最適化”が重要です。

こうした新しい検索に対応するため登場したのが、「llms.txt(エルエルエムエス ドット テキスト)」です。
今回の記事では、llms.txtとはどんなものなのか、なぜ必要とされているのか、どのように書けばよいのかをわかりやすく解説していきます。

 

1.これからはSEOだけでは足りない、「AI検索対策」もやるべき

これまで通り、検索エンジンにインデックス(登録)してもらうための施策は引き続き重要です。
サイトの内部構造やキーワードの設計、被リンク施策などは、安定した集客に欠かせません。

しかし、人々の行動は「検索エンジンで検索する」だけではなくなりました。

AIに質問を投げかける→AIが検索して適切な回答を探す→AIから回答が得られる

このような行動が増えています。
人が検索するのではなく、AIが代わりに検索する場合でも、できるだけ自社の情報を参照して欲しい企業は多いはずです。

一方で、AIは人間と理解の仕方が少し異なります。
そこで必要となるのが「AI検索対策」です。

 

2.llms.txtとは?AIの情報理解を助けるファイル

llms.txtは、AIが情報を効率よく理解できるようにするためのファイルです。

大規模言語モデル(LLM)と呼ばれるAIは、一般の検索エンジンと違い、ウェブページのすべてのコードや装飾をそのまま理解するのが苦手です。

特に、AIにとってはナビゲーションメニューや広告、スクリプトなどがノイズになってしまうため、このようなコードや装飾が多いページでは、本当に読み取るべき情報にたどりつけないことがあります。

また、どんなに優秀なAIにも、一度に処理できる情報には限りがあります。

そのため、ウェブページ全体を一気に読み込ませるのは非効率で、場合によっては正確に内容を理解してもらえないことがあるのです。

そこで、大事な情報だけを要約し、AIに渡してあげるのがllms.txtです。
ウェブサイトの中でも「特にAIに読んでほしいページ」や「要点」を、あらかじめ人間が整理して書き出しておくことで、AIに無駄なく情報を伝えることができます。

 

3.llms.txtの書き方は意外と簡単

llms.txtの記述には「Markdown(マークダウン)」という簡単な記法を使います。

これは、エンジニアでなくても簡単に使える、手軽な文章記述ルールです。

まず最初に、ウェブサイトの名前をタイトルとして書きます。

次に、そのウェブサイトの内容を一文でまとめた簡単な説明文を書き添えます。

そのあと、「どのページが重要か」「どんな情報をAIに伝えたいか」を、カテゴリごとに分けて整理します。

1つ目のセクションでは、重要度の高いページのリンクと説明を並べます。

例えば、トップページやサービス紹介ページ、ブログのカテゴリページなどです。

続いて、優先度が高くない補足的な情報などを「Optional」というセクションにまとめておきます。

それぞれの項目には、ページの内容がわかるタイトル、URL、そのページの内容をまとめた説明を簡潔に記載します。

このファイルを、ウェブサイトのルートディレクトリに「llms.txt」という名前でアップロードするだけで完了です。

 

4.なぜllms.txtが重要なの?AI検索精度を高めてくれる

よくある疑問として、「robots.txtやsitemap.xmlがあるのに、llms.txtも必要なの?」というものがあります。

結論から言えば、llms.txtは他のファイルと役割が異なるため、用意する意味があります。

robots.txtは、検索エンジンに「ここはクロールしていい」「ここは見ないで」と伝えるための制御ファイルです。

sitemap.xmlは、ウェブサイト内にあるページの一覧を伝えるもので、ページの存在を知らせる役割があります。

一方、llms.txtは、AIに対して「どのページが重要か」「そのページには何が書かれているか」といった情報を整理して伝えるものであり、ページの存在だけでなくその内容まで知らせることができます。

つまり、AI検索の精度を高めるには、llms.txtが有効なのです。

 

5.まとめ

現在、ChatGPTのようなAIを通じて情報が検索されるケースがどんどん増えています。

そのため、AIに合わせた情報提供ができるかどうかは、これからの集客や情報発信に大きく影響してくるでしょう。

llms.txtはまだ新しい概念ですが、今後のAI検索時代で重要なものになっていく可能性を秘めています。

だからこそ、今のうちに準備をして備えておくことがおすすめです。

「自分で作るのは難しそう」「どの情報を載せればいいのかわからない」といった場合には、チャコウェブがサポートいたします。
ご興味のある方は、ぜひお気軽にご相談ください!


          この記事を書いた人        
山口 ウェブアクセシビリティマネージャー
株式会社Cyber Cats ウェブアクセシビリティマネージャー。
コーダー、ディレクターを経験する中で「使いやすいホームページ」の重要性を強く感じ、ウェブアクセシビリティ向上に取り組み始めました。
最初は個人的に行っていた活動でしたが、少しずつチームに広がり、現在は組織全体の活動となっています。
自社ホームページのウェブアクセシビリティ監修の他、社内勉強会を開いてメンバーへの情報共有や意見交換を行っています。
また、ウェブアクセシビリティをテーマにブログ執筆を行っており、基本原則の解説や自社ホームページを例に挙げて改善例の紹介などを行っています。
最近はアクセシビリティに関わる施設への取材も開始し、そこで得た経験からウェブアクセシビリティを考える活動を行っています。
詳しいプロフィールはこちらから
山口 ウェブアクセシビリティマネージャーのXはこちら
SNSでフォローする