「NotebookLMにサイトのURLを入れたのに、トップページだけで中のページが全然読み込まれない…」そんな経験、ありませんか?
トップページのURLを貼り付けるだけで、そのサイトのページ全部を取り込んでくれると思っていたのに、実際にはそうじゃなかった——そのガッカリ感、すごくよくわかります。でも安心してください。ちょっとした手順を踏むだけで、階層の深いページまで丸ごとNotebookLMに読み込ませることは十分可能です。
この記事では、2026年最新の仕様をもとに、URL階層の一括取り込みを実現するための具体的な裏ワザと便利ツールをまとめて紹介します。
NotebookLMはURLの階層下(サブページ)まで一括読み込みできる?
まずは、「そもそもNotebookLMって、URLを入れたらサイト全体を自動で読み込んでくれるの?」という疑問から整理しましょう。ここが曖昧なまま使っていると、思ったように活用できずに終わってしまうんですよね。
標準機能ではトップページのみで階層下は自動取得されない
結論からお伝えすると、2026年3月現在、NotebookLMの標準機能にはサイト内を自動巡回(クローリング)する仕組みは搭載されていません。
つまり、「https://example.com」というURLを1つ入力しても、NotebookLMが自動で「https://example.com/blog/」「https://example.com/about/」「https://example.com/service/detail/」……といった下層ページを次々とたどって読み込んでくれることはないんです。
入力したURLのページ1枚分だけを読み取る、というのが現在の仕様。階層下のページを学習させたければ、対象URLをすべて手動で個別に指定するか、全ページのテキストをファイルにまとめてアップロードするしかありません。
「えっ、それって手間じゃないの?」と思いますよね。でも、本記事で紹介する機能と組み合わせれば、その手間を大幅にショートカットできます。
「複数URLの一括アップロード機能」は利用可能
2025年8月のアップデートにより、複数のURLをスペースまたは改行区切りでまとめて貼り付けることで、一度に複数のソースとして登録できる機能が利用できるようになっています。
つまり、こんなイメージです。
https://example.com/blog/post-1
https://example.com/blog/post-2
https://example.com/service/detail
・・・
このようにURLリストをまとめて貼り付けるだけで、3つのページを一括で複数ソースとして追加できる。手動で1個ずつ入力していた頃と比べると、作業効率がぐっと上がりましたよね。
ただし、大前提として「読み込ませたいURLのリスト」を事前に用意する必要があります。そのURLリストをどうやって手早く集めるか——そこが次の章のテーマです。
NotebookLMでURL階層下を一括で読み込ませる裏ワザ・手順
ここからが本題です。「階層下のURLを自動で拾えないなら、URLのリスト自体を別の方法で一括取得して、まとめて貼り付けてしまおう」というのが、今できる最も実用的なアプローチです。
サイトマップ抽出ツールで階層下のURL一覧を一括取得する
多くのウェブサイトには「サイトマップ(sitemap.xml)」と呼ばれるファイルが存在します。これは、サイト内の全ページURLを一覧化したもの。検索エンジン向けに作られているのですが、私たちもこれを活用できます。
サイトマップの主な確認方法は以下の通りシンプルです。
- 調べたいサイトのURL末尾に「/sitemap.xml」をつけてブラウザでアクセス
(例:https://example.com/sitemap.xml) - 「XML Sitemaps」を使う(リスト化して抽出可能)
サイトマップが存在しないサイトや、サイトマップの場所が違う場合もありますが、その確認方法は次の章の「XML Sitemaps」ツールで解説します。
サイトマップからURLを確認・抽出する方法は、技術的な難しさが少なく、エンジニアでない方でもすぐに実践できるのが最大のメリットです。
取得したURLリストをNotebookLMに一括貼り付けする
URLのリストが手に入ったら、いよいよNotebookLMへの取り込みです。
NotebookLMにアクセスし、ノートブックを開いたら左の「ソースを追加」をクリック(最初から開いていることもあります)、→「ウェブで新しいソースを検索」と書かれたテキストボックスに、改行区切りで複数のURLをまとめて貼り付けてください。
ポイントとしては、
- URLは改行またはスペース区切りでOK
- 1回の貼り付けで複数ソースとして一括登録される
- 貼り付け後、各URLが個別ソースとしてリストに追加されていることを確認する
この操作だけで、今まで何十分もかかっていた作業が数分に短縮されます。「こんなに簡単だったの?」と思っていただけるはずです。
ソース数上限を回避!全サイトを1つのCSVに結合して読み込む
ここで一つ壁があります。NotebookLMでは、プランごとに1ノートブックあたりのソース数に上限が設けられています。
- 無料版:最大50ソース/ノートブック
- NotebookLM in Plus:最大100ソース/ノートブック
- NotebookLM in Pro:最大300ソース/ノートブック
- NotebookLM in Ultra:最大600ソース/ノートブック
つまり、無料版を使っている場合、50ページを超えるサイトは全ページを個別URLとして登録できないわけです。
この制限を突破する方法が、「全テキストを1ファイルに結合する」アプローチです。
外部ツール(後述のPythonやGoogle Colabなど)を使って全階層ページのテキストを抽出し、1つのCSVファイルやPDFにまとめてからアップロードすれば、何百ページ分のコンテンツでも「ソース1個」としてカウントされます。
ただし、制限として1ソースあたり最大50万語、ファイルの場合は200MBまで。ただ、これだけ余裕があれば、よほど大規模なサイトでない限り、1ファイルに収められます。
URL階層下の一括取得におすすめの無料効率化ツール3選
ここでは、「URLリストをどうやって集めるか」という実務的な問題を解決してくれる、おすすめツールを3つ紹介します。いずれも無料で使えるものを厳選しました。
XML Sitemaps(ブラウザ上でサイトマップを一括抽出)
XML Sitemapsは、サイトのURLを入力するだけでサイトマップを自動生成・抽出してくれるオンラインツールです。
以下のような使い方ができます。
- サイトマップが存在しないサイトでもURLを一覧化してくれる
- サイト全体をクロールして階層下のURLを収集
- 結果をテキストファイル形式でダウンロード可能
操作画面はシンプルで、以下のようにITが得意でない方でも直感的に使えます。
- XML Sitemaps 公式サイトを開く
- 上部の検索窓にソースにしたいサイトのトップページURLを入力して「START」をクリック
- 数分程度で読み込みが完了(ページ数による)
- スクロールでページの一番下まで移動し、Other Downloadsの「DOWNLOAD ALL SITEMAPS IN A ZIP FILE」をクリック
- ダウンロードされたZipファイルを開き、「urllist」と書かれたテキストファイルを開く
「とにかく早くURLリストが欲しい」という方にまず試してほしいツールです。
無料プランでは最大500ページまでクロール可能なので、中規模サイトまでであれば十分対応できます。
URL抽出用Chrome拡張機能(開いている全タブのURL取得)
すでにブラウザで複数のページを開いている状況なら、Chrome拡張機能を使うのが最も手軽です。
「Copy All Urls」などの拡張機能をChromeに追加すると、現在開いているすべてのタブのURLを一括コピーできます。
このようなシーンで役立ちます。
- 競合サイトを調査しながら、気になったページを次々タブで開いていた
- マニュアルや手順書など、特定のカテゴリのページだけ読み込ませたい
- サイトマップが整備されていないサイトを手動でピックアップしたい
拡張機能はChromeウェブストアから無料でインストールできます。インストール後はブラウザツールバーのアイコンをクリックするだけで全タブのURLをコピーできるので、使い勝手は抜群です。
Python・Google Colab(非エンジニア向けの全記事スクレイピング)
「Pythonって難しそう…」と思った方、少し待ってください。Google Colabを使えば、ブラウザ上でPythonのコードを実行できるので、自分のパソコンに何もインストールする必要はありません。
しかも今は、ChatGPTやClaudeなどのAIにやりたいことを伝えれば、スクレイピング用のコードを生成してもらえます。
大まかな流れは以下の通りです。
- Google Colab(Googleアカウントがあれば無料で使用可能)を開く
- AIが生成したスクレイピングコードを貼り付けて実行
- 対象サイトの全ページテキストが1つのCSVファイルに書き出される
- そのCSVをNotebookLMにアップロード
この方法は前述の「ソース数上限の壁」を完全に回避できる点で、大規模サイトや大量のページを扱いたい場合に特に効果的です。少し手順は多いですが、一度やり方を覚えれば何度でも応用できます。
なお、以下にスクレイピングコード作成用のプロンプトを掲載していますので、必要であれば参考にしてください。ただし、プロンプト下の注意事項については必ず目を通しておいてください。
あなたは優秀なPythonエンジニアです。
Google Colab上で実行するための、Webスクレイピングのコードを作成してください。
【要件】
・対象サイト:https://example.com/(※ここを抽出したいサイトのURLに変更)
・対象サイトのドメイン内の全ページ(階層下すべて)を巡回してテキストを取得してください。
・各ページの「URL」「タイトル」「本文テキスト(HTMLタグを除去した純粋なテキスト)」を取得してください。
・取得したデータを1つのCSVファイル(UTF-8形式)にまとめて、Google Colab上で自動ダウンロードできるようにしてください。
【注意点】
・外部ドメインのリンクには飛ばないようにしてください。
・画像、PDF、ZIPなどのファイルURLは除外してください。
・サーバーに負荷をかけないよう、ページ遷移ごとに1秒の待機時間(sleep)を入れてください。
・非エンジニアがGoogle Colabに貼り付けてそのまま実行できるよう、必要なライブラリのインストール(!pip install)も含めた、1つの完成したコードブロックのみを出力してください。
【スクレイピング実行時の重要なお願い・免責事項】
- 対象サイトの「利用規約」や「robots.txt」を確認し、スクレイピングが禁止されていないか必ず事前に確認してください。
- 対象サーバーへの負荷(サイバー攻撃)にならないよう、プロンプト内の「1秒の待機時間」は絶対に外さずに実行してください。
- 他者のサイトから抽出したデータは、NotebookLMでの個人的な学習・分析用途(私的利用)にとどめてください。
- 当サイトで紹介したプロンプトやコードを実行し、万が一トラブルや損害が発生した場合、当サイトは一切の責任を負いかねます。必ず自己責任での実行をお願いいたします。
NotebookLMに複数URL・階層データを読み込ませる際の注意点
便利な手法を紹介してきましたが、知らずに進めると「あれ、なんかうまくいかない」ということも出てきます。事前に把握しておくべき注意点を3つまとめました。
1ノートブックあたりのプラン別ソース数上限
改めて整理しておきます。NotebookLMのソース数上限は、利用しているプランによって大きく異なります(2026年3月時点の公式情報に基づきます)。
| プラン | ソース上限 |
|---|---|
| 無料版 | 50ソース/ノートブック |
| NotebookLM in Plus(Google AI Plusに内包) | 100ソース/ノートブック |
| NotebookLM in Pro(Google AI Proに内包) | 300ソース/ノートブック |
| NotebookLM in Ultra(Google AI Ultraに内包) | 600ソース/ノートブック |
URLを1件ずつ登録する方式だと、無料版ユーザーはあっという間に上限に達してしまいます。50ページを超えるコンテンツを扱いたい場合は、前述の「1ファイルにまとめてアップロード」手法か、有料プランへのアップグレードを検討してみてください。
1ソースあたりの文字数・データ容量制限(50万語・200MB)
URLとして登録した場合でも、ファイルとして登録した場合でも、1ソースあたりの上限は「最大50万語」「最大200MB(ファイルの場合)」と定められています。
通常のウェブページ1ページ分ならまず問題ありませんが、全ページのテキストを1つのCSVに統合する場合は、文字数50万語、ファイルサイズ200MBを超えないよう注意が必要です。
この場合、主な対策としては以下のような方法があります。
- 不要なページや重複コンテンツをCSVから除外する
- サイトを複数のカテゴリに分けて、ノートブックを分割して管理する
どちらも手間はかかりますが、一度整理してしまえばその後の分析がぐっとスムーズになります。
動的ページやログイン必須ページの読み込みエラーに注意
URLを登録したのに、「読み込めない」「内容が空っぽ」という状況になることもあります。この主な原因として考えられるのは、大きく以下の2つです。
① JavaScriptで動的に生成されるページ
ページを開いた後にJavaScriptが走ってコンテンツが表示される仕組みのサイト(多くのSPAやWebアプリ)は、NotebookLMが内容を正しく取得できないことがあります。
② ログインしないと見られないページ
会員専用コンテンツや、社内システム上のページなどは、URLを指定してもNotebookLM側でアクセスできないためエラーになります。
この場合の対処法としては、以下のような方法が挙げられます。
- ブラウザで該当ページを開き、テキストを手動でコピーしてNotebookLMに「テキスト貼り付け」としてソース登録する
- ページをPDF形式で保存して、ファイルとしてアップロードする
少し手間ですが、どちらの方法でも確実に内容を学習させることができます。
「ここまでできるの?」と思ったら、今日から試してみましょう
NotebookLMは「URLを入れるだけ」ではサイトの全階層を読み込んでくれません。でも、適切なツールと手順を組み合わせることで、大量のウェブページを効率よく学習させることは十分可能です。
この記事でお伝えしたポイントをおさらいすると、
- 標準機能では階層下の自動クローリングは非対応(トップページのみ)
- 複数URLの一括貼り付け機能を活用すればURLリストを一気に登録できる
- サイトマップ抽出ツール・Chrome拡張・Google ColabでURLリストや全ページテキストを効率取得
- 無料版は50ソースが上限——超える場合は1ファイル結合で回避
- 動的ページ・ログイン必須ページはPDF化や手動コピーで対応
「なんか難しそう…」と感じた方も、まずはNotebookLMの無料版とXML Sitemapsの組み合わせから試してみてください。操作はどちらもブラウザだけで完結します。慣れてきたら、Google Colabを使った全ページ一括抽出などにもぜひチャレンジしてみてください。
仕事の調査・情報整理・競合分析——これまで何時間もかけていた作業が、NotebookLMを使いこなすことで大幅に短縮できます。まずは無料で、今日から一歩踏み出してみましょう。
※本記事に記載の料金・プラン・バージョン情報は執筆時点のものです。最新の正確な情報は公式サイトをご確認ください。


コメント