Build This Now
Build This Now
クロード・コードとは何か?Claude Code のインストールClaude Code ネイティブインストーラーClaude Code で最初のプロジェクトを作る
Ralphメソッドスレッドベースのエンジニアリング自律 Claude CodeロボットファーストエンジニアリングClaude Code /simplify と /batchClaude Codeによるスペック駆動開発なぜChatGPTは何でも肯定してくるのか?なぜChatGPTは話を作り上げるのか?なぜAIはこんなに中毒性があるのか?なぜAIは友達のように感じるのか?なぜChatGPTを使うとバカになっていく気がするのか?なぜGoogleよりAIを信じてしまうのか?なぜAIはさっき話したことを忘れるのか?なぜAIは間違っているのに自信たっぷりに聞こえるのか?なぜAIは訂正されるとパニックになるのか?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Forget What We Just Talked About?

なぜAIはさっき話したことを忘れるのか?

AIが会話の途中で忘れるのは、コンテキストウィンドウとアテンション予算、そして「コンテキストロット」と呼ばれる現象が原因です。その仕組みと対策を解説します。

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。

Published Apr 30, 202610 min readHandbook hubCore index

問題: 1時間かけてChatGPTにあなたのプロジェクトを説明する。トーンも制約もゴールも、ちゃんと理解してくれた。20メッセージ後にはファイル名を忘れている。30メッセージ後には自分が書いたルールに矛盾し始める。50メッセージ目には、1時間前に「やめろ」と警告したプランを褒め始める。GPT-5のローンチスレッドでRedditユーザーが見事に表現していました。「うちのChatGPTが重度の脳損傷を負って、読み方を忘れたみたい」。

すぐ使える対策: 間違った答えが出たら、毎回新しいチャットを始めましょう。重要なコンテキストだけを添えて、同じ質問をし直してください。

この習慣だけで、初日からほとんどのギャップが埋まります。続きを読めば、何が実際に起きているのか、認知心理学はどう説明するのか、そしてなぜBuild This Nowのアーキテクチャがこの失敗モードを回避できるのかが分かります。

「脳損傷」の瞬間

名前を知る前から、あなたはこの現象を体感していたはずです。鋭く始まった長いセッションが、徐々に鈍くなる。モデルがループする。前の質問を繰り返す。たった今あなたがリネームした変数を忘れる。3メッセージ前に訂正したはずの事実を、満面の笑顔で再発明する。

これはあなたのせいではありません。運が悪かったわけでもありません。市場のすべてのチャットボットの構造的な性質です。100万トークンのコンテキストウィンドウを持つモデルでも同じ。この現象には、もう名前があります。Hacker Newsのコメンターが2025年6月に名付けました。Anthropicのエンジニアリングが使っています。Chromaも使っている。OpenAIのドキュメントも使っている。その名前がコンテキストロットです。

脳ではなく、メモ帳

AIには記憶がありません。もう一度言います。セッションも、再生も、過去のチャットの蓄積された印象もない。あなたが打つ言葉も、モデルが返す言葉も、すべてトークンと呼ばれる小さな塊に分解されます。会話全体は、そのトークンが連なった1本の長いリボンです。

コンテキストウィンドウは、モデルが一度に読めるリボンの最大長です。固定サイズのスクラッチパッドだと考えてください。新しいターンのたびに、モデルはリボン全体を最初から読み直し、次のトークンを書きます。タブを閉じれば、リボンは消えます。

ChatGPTやClaudeの「メモリー」機能は、この事実を変えません。あなたの小さな要約を別の場所に保存し、新しいチャットの開始時にシステムプロンプトに貼り付けているだけです。賢い仕組みではありますが、記憶ではありません。

なぜスポットライトが薄暗くなるのか

モデルは次のトークンを書く前に、アテンション機構を使って、そのトークンとリボン上のすべての既存トークンを比較します。リボン全体を再スイープして、何が重要かを判断するスポットライトをイメージしてください。これがTransformerの中核的なブレイクスルーです。GPTのTです。

アテンションは二乗のコストがかかります。100トークンのチャットなら、新しいトークンごとに約100回のアテンション操作。1,000トークンなら約1,000回。100,000トークンなら約100,000回。コストはトークンごとにかかるので、10倍長いセッションは約100倍の計算量を要します。

Anthropicはエンジニアリングブログでこう端的に表現しています。

「人間が限られたワーキングメモリ容量を持つように、LLMには大量のコンテキストを解析する際に引き出す『アテンション予算』がある。新しいトークンが導入されるたびに、この予算は減る」

これが問題のすべてです。ウィンドウは100万トークンを保持できる。アテンション予算は保持できない。

真ん中で迷子になる

2023年、StanfordのLiuらがこのテーマの正典的な論文を発表しました。タイトルがすべてを物語ります。Lost in the Middle: How Language Models Use Long Contexts(arXiv:2307.03172)。

結果はこうです。

「関連情報が入力コンテキストの最初か最後にあるとき、性能は最も高い。長いコンテキストの真ん中にある関連情報にアクセスする必要があるとき、明示的にロングコンテキストモデルとされたモデルでさえ、性能は大きく低下する」

U字カーブです。モデルは冒頭をよく覚えている。終端もよく覚えている。真ん中は消える。会議の2時間目に意識が飛んでいる人間のリスナーと同じです。

100万トークンでも、コンテキストロットは現実

ウィンドウを大きくしても、バグは消えませんでした。むしろ、より目立つようになりました。

Chromaの2025年研究は、18のフロンティアモデルを徐々に長くなる入力でテストしました。すべて劣化しました。100万トークンウィンドウのモデルでさえ、わずか50,000トークンで計測可能な劣化を示しました。Adobe Researchは同年、マルチホップ推論テストを実施し、コンテキストが長くなるにつれて精度が崩れていく様子を観察しました。

モデル短いコンテキスト長いコンテキスト
GPT-4o99%70%
Claude 3.5 Sonnet88%30%
Llama 4 Scout82%22%

長いドキュメントの中からフレーズを探すだけならモデルは持ちこたえます。長いチャットに埋め込まれた複数の事実を横断して推論させると、精度は崖から落ちます。後者こそが、あなたの実際の使い方です。

2026年に主要チャットボットが提供するスペックはこちらです。

モデルコンテキストウィンドウ
Claude Opus 4.71,000,000トークン (GA)
Claude Sonnet 4.61,000,000トークン (GA)
GPT-5.51,000,000+トークン
Gemini 3.1 Pro1,000,000トークン
Mythos Preview1,000,000トークン (リサーチのみ)

パターンに注目してください。上限は4年で約244倍になりました。「忘れる」というユーザーの不満は史上最高に達しました。ボトルネックはウィンドウではないのです。

あなたの脳にも同じバグがある

認知心理学者は、人間で同じ現象を70年研究してきました。

George Miller、1956年、「The Magical Number Seven, Plus or Minus Two」。人間は即時記憶で約7±2のアイテムを同時に保持できる。電話番号はこの限界に合わせて設計されました。Nelson Cowanは2001年に再計算し、リハーサルのトリックを除いた本当の上限は4±1に近いと主張しました。Alan BaddeleyとGraham Hitchはすでに、ワーキングメモリを音韻ループ、視空間スケッチパッド、そして何に注意を向けるかを決める中央実行系に分割していました。

形は同じ、スケールは桁違いです。

性質人間のワーキングメモリLLMコンテキストウィンドウ
「アクティブ」な情報の上限約4チャンク約1,000,000トークン
想起しやすい位置冒頭と終端 (初頭効果と新近効果)冒頭と終端 (lost in the middle)
中間アイテムの減衰ありあり
書き留めることで回避できるはいはい

人間は4チャンク。モデルは100万トークン。両者とも長い会話の真ん中を忘れます。ボトルネックは保管容量ではない。アテンションです。人間は限られた保管容量を、積極的に忘れて書き留めることで対処しています。モデルは巨大な保管容量を持ちながら、薄いアテンション予算しか持たず、しかも生成前にすべてを見なければならないのです。

なぜウィンドウを大きくしても救われないのか

チャットが伸びるにつれて、3つの失敗モードが積み重なります。

容量。リボンがウィンドウ上限に達すると、古いトークンは捨てられるか要約されます。モデルは切られた部分を文字通り見ることができません。

アテンションの希釈。上限に達する前ですら、スポットライトが見るべき対象が多すぎます。新しいターンごとにS/N比が下がります。

真ん中で迷子。モデルは最新トークンと最古トークンに過剰な重みを置きます。間にあるものは消えていきます。

「コンパクション」がこれを陰険な形で悪化させます。ClaudeやChatGPTが上限の約95%に達すると、それまでのターンを要約し、履歴をその要約に置き換えます。要約は決定事項を保持しますが、訂正、作業中のパターン、40メッセージかけて確立したトーンを失います。2025年10月にGitHubに上がったバグ報告がそれを言い当てています。コンパクション前は完璧に守られていたルールが、コンパクション後は100%違反される、と。

実際に効く対策

ユーザーとして使えるレバーは3つあります。順に使ってください。

新しい質問のたびに新しいチャットを始める。古いコンテキストは長いセッションの悪い回答の最大原因です。新しいチャットは無料です。

新しい質問の中に、関連するコンテキストを再度書く。「さっき話したファイルを覚えてる?」と書いてはいけません。ファイルを貼り付ける。ルールを貼り付ける。制約を貼り付ける。モデルに記憶はありません。今日リボンに載せたものしか持たないのです。

重要な指示はプロンプトの最初と最後の両方に置く。Liuらが示したように、モデルは両端に重みを置きます。両端を使ってください。

ビルダー側の答えはアーキテクチャです。Karpathyは2025年6月、Xでこう名付けました。

「コンテキストエンジニアリングとは、次のステップに必要なちょうどいい情報でコンテキストウィンドウを満たす、繊細なアートとサイエンスである」

3つのパターンが大半の仕事をします。

パターン何をするか
サブエージェント各エージェントがクリーンなウィンドウで動き、短い要約だけを返す。メインスレッドはノイズを見ない
ジャストインタイム取得ファイル、検索結果、メモリーをウィンドウの外に置く。エージェントは必要なときだけ読む
永続的なプロジェクトメモリエージェントが毎セッション開始時に読み込む小さなファイル。チャットの外にあるのでコンパクションを生き延びる

これはAnthropicの自社エンジニアリングチームが推奨する形そのままです。あなたの脳がやっていることそのものでもあります。あなたは受信箱を暗記しません。検索するのです。

AIで何かを作るあなたへの示唆

ソロのファウンダーが1つのChatGPTスレッドでMVPをバイブコーディングする。3時間目にコンテキストロットに当たります。モデルが矛盾を始める。午前中にすり合わせたプランが溶ける。彼らはツールを責めます。ツールはアーキテクチャが許す通りに動いているだけなのに。

Build This NowはClaude Code上で動くAIパワードのSaaSビルドシステムです。18の専門エージェント、55以上のスキル、アイデアからライブプロダクトまでの5ステップパイプライン。アーキテクチャはlost-in-the-middle論文に「逆らって」ではなく、「沿って」設計されています。

18のエージェントはそれぞれ自分のフレッシュなコンテキストウィンドウで動きます。Database ArchitectはDesignerの下書きを見ません。TesterはBackend Developerの失敗した試みを引き継ぎません。オーケストレーターは各エージェントから短い圧縮された要約を受け取ります。サブエージェントアーキテクチャはAnthropicがコンテキストロット対策として明示的に推奨するパターンであり、デフォルトで組み込まれています。

スキルはウィンドウの外で生きています。55以上の再利用可能なミニ命令が必要なときだけロードされます。CLAUDE.mdはプロジェクトの永続メモリーファイルで、毎セッション開始時にすべてのエージェントが読みます。/auto-memoryスキルはセッションをまたいで決定事項をキャプチャするので、次のチャットは前のチャットの続きから始められます。ファイルはglobとgrepで読み、プロンプトに詰め込みません。フレームワークはコンテキストウィンドウを、有限なリソースとして扱っています。

答えはウィンドウを大きくすることではない

迎合(シコファンシー)はAIの最初のダークパターンでした。コンテキストロットは2つ目です。あなたは名前がつく前から、これを感じていました。今は名前があります。使ってください。チームに、長いセッションが鈍くなる理由を伝えてください。ユーザーに、新しいチャットが答えだと伝えてください。

科学は決着済みです。人間もモデルも、真ん中を忘れる。両者とも、書き留めることで対処する。Build This Nowはノートブックを開いた状態で出荷されています。新しいチャットを始める。重要なものを貼る。あるいは、両方を代わりにやってくれるシステムに仕事を渡してください。

Continue in Core

  • Claude Codeにおける100万トークンコンテキストウィンドウ
    AnthropicはClaude CodeのOpus 4.6とSonnet 4.6に対して100万トークンのコンテキストウィンドウを有効化した。ベータヘッダー不要、追加料金なし、定額料金、そして圧縮の削減。
  • AGENTS.md vs CLAUDE.md 解説
    2つのコンテキストファイル、1つのコードベース。AGENTS.mdとCLAUDE.mdの違い、それぞれが何をするか、重複なしに両方を使う方法を解説します。
  • Auto Dream
    Claude Code はセッション間に自身のプロジェクトノートを整理します。古いエントリは削除され、矛盾は解消され、トピックファイルは再整理されます。/memory を実行してください。
  • クロードコードのオートメモリー
    オートメモリーは、Claude Codeがプロジェクトノートを実行し続けることを可能にします。ファイルの場所、書き込まれる内容、/memoryの切り替え方法、CLAUDE.mdを選ぶタイミング。
  • 自動計画戦略
    Auto Plan Modeは--append-system-promptを使ってClaude Codeを計画優先のループに強制する。ファイル操作は承認が得られるまで一時停止される。
  • 自律 Claude Code
    一晩でフィーチャーをリリースするエージェントのための統合スタック。スレッドが構造を与え、Ralph ループが自律性を与え、検証が正確さを保つ。

More from Handbook

  • エージェントの基礎
    Claude Codeでスペシャリストエージェントを構築する5つの方法:タスクサブエージェント、.claude/agents YAML、カスタムスラッシュコマンド、CLAUDE.mdペルソナ、パースペクティブプロンプト。
  • エージェント・ハーネス・エンジニアリング
    ハーネスとは、AIエージェントを構成するモデル以外のすべての層のことです。5つの制御レバー、制約のパラドックス、そしてなぜハーネス設計がモデルよりもエージェントのパフォーマンスを左右するのかを学びましょう。
  • エージェントパターン
    オーケストレーター、ファンアウト、バリデーションチェーン、スペシャリストルーティング、プログレッシブリファインメント、ウォッチドッグ。Claude Code のサブエージェントを組み合わせる6つのオーケストレーション形状。
  • エージェントチームのベストプラクティス
    Claude Code エージェントチームの実証済みパターン。コンテキストが豊富なスポーンプロンプト、適切なサイズのタスク、ファイルオーナーシップ、デリゲートモード、v2.1.33〜v2.1.45 の修正内容。

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。

なぜGoogleよりAIを信じてしまうのか?

1つの自信に満ちたチャットボットの回答が、ランキング表示された10個のリンクより真実に感じる。その背景にある認知科学と、見落としているコストを解説します。

なぜAIは間違っているのに自信たっぷりに聞こえるのか?

AIは事実と同じトーンで推測を語ります。原因は訓練のスコアボードにあります。研究が示すこと、そしてあなたが自分を守る方法を解説します。

On this page

「脳損傷」の瞬間
脳ではなく、メモ帳
なぜスポットライトが薄暗くなるのか
真ん中で迷子になる
100万トークンでも、コンテキストロットは現実
あなたの脳にも同じバグがある
なぜウィンドウを大きくしても救われないのか
実際に効く対策
AIで何かを作るあなたへの示唆
答えはウィンドウを大きくすることではない

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。