Build This Now
Build This Now
クロード・コードとは何か?Claude Code のインストールClaude Code ネイティブインストーラーClaude Code で最初のプロジェクトを作る
Ralphメソッドスレッドベースのエンジニアリング自律 Claude CodeロボットファーストエンジニアリングClaude Code /simplify と /batchClaude Codeによるスペック駆動開発なぜChatGPTは何でも肯定してくるのか?なぜChatGPTは話を作り上げるのか?なぜAIはこんなに中毒性があるのか?なぜAIは友達のように感じるのか?なぜChatGPTを使うとバカになっていく気がするのか?なぜGoogleよりAIを信じてしまうのか?なぜAIはさっき話したことを忘れるのか?なぜAIは間違っているのに自信たっぷりに聞こえるのか?なぜAIは訂正されるとパニックになるのか?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Am I Getting Dumber From Using ChatGPT?

なぜChatGPTを使うとバカになっていく気がするのか?

MITが54人の脳をスキャンし、ChatGPTでエッセイを書かせた。接続性は半減、想起は崩壊、所有感は急落。メカニズムと対策。

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。

Published Apr 30, 202611 min readHandbook hubCore index

問題:以前は助けなしでメールを下書きできた。今はまずChatGPTを開く。返事は速く戻ってきて、ちゃんと読める。でも5分後に一文も引用できない。長いPDFを読むのが面倒に感じる。10分間頭の中で議論を保つのが、去年より難しくなった気がする。あなたは衰えを想像しているわけではありません。研究者たちが測定し始めています。

クイックウィン:いつも先頭に置くようなプロンプトの上に、このルールを貼ってください:

まだ答えを出さないでください。これについて私が尋ねるべき最良の3つの質問を挙げてください。私が1つ選び、自分で下書きを書いてから、あなたが洗練してください。

その一手で、関わる順番がひっくり返ります。あなたが先に考える。モデルが後で洗練する。続きを読んでください。脳スキャン研究が実際に何を示しているか、そしてあなたの切れ味を保つ安価な習慣について。

その感覚にもう名前がある

誰かがラベルを付ける前から、あなたは感じていました。空白のページは、十分に座っていれば自分で埋まっていた。今は、チャットボットのタブに切り替えるまでカーソルがそこに座っています。仕事は速くなる。仕事に対するあなたの握りは弱くなる。

MITはこれを認知負債と呼びます。このフレーズは2025年のEEG研究、Your Brain on ChatGPTという題のものから来ました。比喩は金融から借りています。ツールで取るすべてのショートカットは小さなローン。請求書は後で届きます。あなたがもう持っていないスキルとして。

54人の頭の上の32電極が拾ったこと

MIT Media LabのNataliya Kosmynaとチームは、54人に4ヶ月のエッセイ執筆をさせました。3グループ。1つはChatGPTで書いた。1つはGoogleで書いた。1つはツールなしで書いた。各セッションはSAT形式の課題で、32チャンネルEEGが全体を通して動いていました。

数字は議論を打ち切るタイプのものです:

計測項目ChatGPTグループの結果
アルファ・シータ帯域の脳接続性ツールなしグループの約半分のレベル
課題中の認知負荷ベースラインから32%減
執筆速度60%速い
書いたばかりの一節を引用できた17%の確率
エッセイの自己認識所有感3グループ中最低
英語教師による声の評価「魂がない」

アルファ波とシータ波は、創造的アイデア、意味検索、記憶定着に結びついた帯域です。ChatGPTがループにいるとき、それらの帯域は静まりました。仕事は終わる。ほとんど何も残らない。

論文の児童精神科医のZishan Khan博士は平易にこう言いました:情報にアクセスし、事実を想起し、プレッシャー下で耐える神経接続は、不使用ですべて弱まる。

MITだけの話ではない

Microsoft ResearchとCarnegie Mellonの別チームが、CHI '25でこの分野最大の調査を実施しました。Hank Leeらが319人のナレッジワーカーから936件の実世界AI相互作用を集めました。見出しの相関:

要因批判的思考への影響
AIへの信頼が高い批判的思考が少ない(B = -0.69、p < 0.001)
自分への信頼が高い批判的思考が多い(B = 0.26、p = 0.026)
時間プレッシャー批判的思考が少ない
タスクが低リスクと認識される批判的思考が少ない

ワーカーは共有したAI支援タスクの60%でしか批判的思考をしていなかったと報告しました。心の仕事は、タスクをすることからAIをチェックすることに移った。検証は本物の認知労働ですが、元の分析より浅いものです。

論文は1983年のLisanne BainbridgeのIronies of Automationを呼び戻します。彼女のポイントは生きています:定型業務を機械に渡し、例外だけを人間に取っておくと、人間は反復練習を失う。例外が来るまでに、筋肉は消えている。

2011年にGoogleでもっと小さい版があった

Betsy Sparrow、Jenny Liu、Daniel WegnerはColumbiaで4つの実験を行い、結果をGoogle効果と呼びました。人々はオンラインで後に見つけられると期待するコンテンツの内容をあまり覚えていません。ファイル自体よりファイルの場所をよく覚えている。インターネットは外部記憶になっていました。同僚や配偶者がそうあり得るように。

Googleはまだあなたにクリックさせました。スキャン。比較。決定。統合はあなたの仕事でした。ChatGPTはそのステップ全体を取り除きます。答えは完成し、流暢に、自信を持って届きます。あなたがしていた3〜4回の心の反復が、なくなりました。

なぜChatGPTは電卓と違うのか

他のツールはチェーンの一部分を自動化します。電卓は算術を自動化します。GPSは経路探索を自動化します。スペルチェックは綴りを自動化します。その一ステップの両側の思考は、まだあなたのものです。

チャットボットはチェーン全体を自動化します。質問から成果物まで。思考は別の場所で起こるのではない。まったく起こらない。Cal Newportが誰よりもクリーンに言いました:執筆は思考だ。執筆を飛ばせば、それが生んだはずの思考も飛ばす。

その上にもう1つの罠があります。Gerlichの2025年の666人の研究は、AI回答を評価しようとしたユーザーでさえ、最初の返事に係留されることを発見しました。モデルが最初に何を言ったかが、残りの会話の枠組みを決めました。慎重なユーザーと不注意なユーザーは似た答えに収束した。最初の枠組みが勝ちます。

神経科学が実際に示していること

上の数字は行動を記述します。下の神経科学はメカニズムを記述します。

3つのパターンがMITデータ全体で繰り返されます:

脳波帯域機能ChatGPTがそれにしたこと
シータ(4〜8 Hz)記憶エンコード、意味検索課題中と課題後に抑制
アルファ(8〜12 Hz)内部注意、アイデア取得課題中に抑制
前頭前野接続性計画、判断、自己モニタリングツールなしグループに対して減少

海馬は、あなたが努力しなかった記憶をエンコードしません。前頭前皮質は、走らせなかった回路を強化しません。これは比喩ではありません。長く練習されない運動・認知スキルすべてに現れる、使うか失うかの同じパターンです。

American Hospital Associationからの別の発見は、これの最もクリーンな実世界の反響です。3ヶ月の間、結腸鏡検査でポリープにフラグを立てるためにAIを使った医師は、研究者がAIをオフにしたとき、AIなしでポリープを見つけるのが測定可能なほど悪くなっていました。3ヶ月。訓練を受けた専門家。

領収書は学術だけでなない

Hacker Newsで「atrophy」を検索すると、Addy OsmaniのAvoiding Skill Atrophy in the Age of AIに行き当たります。トップコメントはこう読めます:「AI以前の自分よりバカで、自信がなく、やる気がない気がする。簡単にイライラするようになり、ドキュメントを読むことや新しいフレームワークを学ぶことが面倒に感じる」。そのコメントは何百ものアップボートを集めています。

同じ行はあらゆる場所に現れます:

フォーラムスレッド
r/GithubCopilot「AIのせいで最近バカになった気がする」
r/GradSchool「ChatGPTが私の学生をバカにしている」
r/edtech「AIはツールではなく代理だ」
r/programming「AIは私たちをより悪いプログラマーにしている」
r/nosurf「ChatGPTは私たちをバカにしているのか」

YouTubeには100万再生のChatGPT Brain Rot Is Realという動画があります。TikTokにはアクティブな#chatgptbrainrot発見ページがあります。Wall Street JournalはHow to Make Sure ChatGPT Doesn't Make You Dumberという記事を出しました。The Atlanticは「脱スキル化の時代」を造語しました。Harvard GazetteはAIが心を鈍らせるか尋ねる教員Q&Aを実施しました。これだけ多くの場所でこれだけ大きいパターンはパニックではありません。人々が自分の人生で同じことに気づいているということです。

最も危険なユーザーは最も若い

Michael Gerlichの666人の調査は、急な年齢勾配を見つけました。17〜25歳コホートの批判的思考スコアは、46歳以上のコホートよりおおよそ45%低かった。同じグループは年長者よりAIツールに40〜45%多く頼っていると報告しました。

若いユーザーは机に答えマシンがあるところで育ちました。それが後で置き換えるオフラインの習慣を作ったことがありませんでした。KosmynaはTIMEに、発達データが揃う前の「GPT幼稚園」展開を恐れたから、論文をプレプリントとして出したと語りました。

裏面はすでにこれを読んでいる大人にとって良いニュースです。研究の年配の脳は接続性をよりよく保ちました。すでに持っている反復は一夜で消えません。使うのをやめれば侵食します。

脳をつけ続けたたった1つの習慣

MIT論文に埋もれた結果が、会話全体を変えます。研究の4回目のセッションは切り替えテストでした。ChatGPTを3セッション使った人々は、次のエッセイをツールなしで書かなければなりませんでした。3セッション、ツールなしで使った人々は、初めてChatGPTを得ました。

最初のグループは迷子でした。自分の以前の議論を取り戻せませんでした。接続性は平らなままでした。2番目のグループは違って見えました。脳は高アルファ・シータ接続性、前頭前野エンゲージメント、活発な後頭頂領域で点灯しました。MITチームはこのグループをBrain-to-LLM条件と呼びました。

同じツール。同じタスク。違う関わる順序。違う結果。

そこから出てくるルールは短い。先に考える。次にプロンプト。最後に洗練。

ChatGPTを萎縮ではなく拡張にする習慣

このうち3つを選んで2週間走らせてください。ポイントは純粋さではない。反復を保つことです:

習慣何を守るか
チャットボットを開く前に自分の言葉でラフ下書きを書く前頭前野の計画、意味検索
完成した結論ではなく生の事実をモデルに尋ねる統合、判断
与えられたあらゆる答えに反論を要求する係留耐性
引用、数字、引用を手で検証する長期記憶エンコード
プロンプトする前に難しい問題に10分座る不満耐性、深い検索
要約だけでなくAIが引用する出典を読む理解、出典評価
下書きを最後に1回見直す前にタブを閉じる声、所有感、想起

哲学者Andy Clarkは、もともと拡張心仮説を造語した人ですが、新しいツールに対して最もクリーンな一行を出しています。モデルを、たまに優秀でたまに完全に脱線する同僚として扱う。同僚は検証する。モデルも検証すべき。

Build This Nowはどこに収まるか

ほとんどのAI製品は単一の形を使います。あなたが尋ねる。それが答える。あなたが出荷する。プロンプトの後、あなたの脳はループに入りません。それがMITが計測した、崩壊する順序です。

Build This NowはClaude Codeで動くSaaSビルドシステムです。パイプラインは5コマンドの長さ。順序がポイントです。

/discoverが最初に走ります。6つのリサーチエージェントが、コードが存在する前に、アイデア、ユーザー、市場、価格、ツールを綴り出すことを強制します。あなたは消費しているのではなく、決定しています。

/mvp-specが2番目に走ります。すべての機能の仕様があなたのレビューのために目の前に届きます。あなたが読み、押し返し、編集し、承認する。アーキテクチャはファイルが書かれる前にあなたのものです。

/mvp-buildが3番目に走ります。専門エージェント18体が仕様を取って組み立てます。品質ゲートが仕事をチェックします。あなたが各部分を検証して受け入れます。エージェントがタイプを打ちます。あなたは判断を保ちます。

そのシーケンスは、ビルドパイプラインとしてエンコードされたBrain-to-LLM順序です。モデルが書く前に思考が起こる。フレームがすでにあなたのものなので、モデルはフレームを係留できません。

反復を飛ばすと筋肉が消えます。順序を保てばツールはツールのままです。脳をつけて作る。脳を切らない。脳の後で作らない。

Continue in Core

  • Claude Codeにおける100万トークンコンテキストウィンドウ
    AnthropicはClaude CodeのOpus 4.6とSonnet 4.6に対して100万トークンのコンテキストウィンドウを有効化した。ベータヘッダー不要、追加料金なし、定額料金、そして圧縮の削減。
  • AGENTS.md vs CLAUDE.md 解説
    2つのコンテキストファイル、1つのコードベース。AGENTS.mdとCLAUDE.mdの違い、それぞれが何をするか、重複なしに両方を使う方法を解説します。
  • Auto Dream
    Claude Code はセッション間に自身のプロジェクトノートを整理します。古いエントリは削除され、矛盾は解消され、トピックファイルは再整理されます。/memory を実行してください。
  • クロードコードのオートメモリー
    オートメモリーは、Claude Codeがプロジェクトノートを実行し続けることを可能にします。ファイルの場所、書き込まれる内容、/memoryの切り替え方法、CLAUDE.mdを選ぶタイミング。
  • 自動計画戦略
    Auto Plan Modeは--append-system-promptを使ってClaude Codeを計画優先のループに強制する。ファイル操作は承認が得られるまで一時停止される。
  • 自律 Claude Code
    一晩でフィーチャーをリリースするエージェントのための統合スタック。スレッドが構造を与え、Ralph ループが自律性を与え、検証が正確さを保つ。

More from Handbook

  • エージェントの基礎
    Claude Codeでスペシャリストエージェントを構築する5つの方法:タスクサブエージェント、.claude/agents YAML、カスタムスラッシュコマンド、CLAUDE.mdペルソナ、パースペクティブプロンプト。
  • エージェント・ハーネス・エンジニアリング
    ハーネスとは、AIエージェントを構成するモデル以外のすべての層のことです。5つの制御レバー、制約のパラドックス、そしてなぜハーネス設計がモデルよりもエージェントのパフォーマンスを左右するのかを学びましょう。
  • エージェントパターン
    オーケストレーター、ファンアウト、バリデーションチェーン、スペシャリストルーティング、プログレッシブリファインメント、ウォッチドッグ。Claude Code のサブエージェントを組み合わせる6つのオーケストレーション形状。
  • エージェントチームのベストプラクティス
    Claude Code エージェントチームの実証済みパターン。コンテキストが豊富なスポーンプロンプト、適切なサイズのタスク、ファイルオーナーシップ、デリゲートモード、v2.1.33〜v2.1.45 の修正内容。

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。

なぜAIは友達のように感じるのか?

1966年、MITの秘書は上司に部屋を出るように頼んだ。チャットボットと内緒で話したかったから。それ以来、脳は変わっていない。

なぜGoogleよりAIを信じてしまうのか?

1つの自信に満ちたチャットボットの回答が、ランキング表示された10個のリンクより真実に感じる。その背景にある認知科学と、見落としているコストを解説します。

On this page

その感覚にもう名前がある
54人の頭の上の32電極が拾ったこと
MITだけの話ではない
2011年にGoogleでもっと小さい版があった
なぜChatGPTは電卓と違うのか
神経科学が実際に示していること
領収書は学術だけでなない
最も危険なユーザーは最も若い
脳をつけ続けたたった1つの習慣
ChatGPTを萎縮ではなく拡張にする習慣
Build This Nowはどこに収まるか

設定をやめて、構築を始めよう。

AIオーケストレーション付きSaaSビルダーテンプレート。