「AIを使うとバカになる」は本当だった!実験で明らかになった批判的思考能力の低下と、それを防ぐための思考習慣という記事を読みました。
明らかに論理が破綻しているように見受けられたので、記事が主張する「AIバカ化」のロジックを詳しく見ながら、本当に「AIツール利用頻度が高いほど、批判的思考能力が低下する」のかを考えていきたいと思います。
記事が主張する「AIバカ化」のロジック
この記事は、主に以下の3段階をもって「AIが批判的思考を低下させる」と結論付けています。
1. 過去の技術事例の延長線上にAIを位置付ける
- 例:カーナビ普及で道順を覚えなくなった、電話帳の廃止で番号を記憶しなくなった。
- 主張:テクノロジーが人間の能力を代替すると、その能力は退化する。
2. 生成AIは「考える行為」を代替する
- 例:ChatGPTが情報収集・分析・判断を代行するため、人間が「思考停止」に陥る。
- 主張:思考の外部化(認知的オフローディング)が批判的思考能力の低下を招く。
3. スイスの研究結果で実証
- 666人対象の調査で「AI利用頻度と批判的思考能力に負の相関」を確認。
- 若年層・低学歴者ほど依存度が高く、高学歴者は「AI出力を検証する習慣」を持つ。
総合結論:AIに依存すればするほど、自ら考えなくなり、バカになる。
主張の根拠が「弱い、または不適切」と思われるポイント
1. 相関関係≠因果関係
- 「AIを使うから思考力が下がる」の証明になっていない。
- 逆の可能性:もともと思考力が低い人がAIに依存するのかもしれない。
- 研究デザインの限界:AI使用前後の思考力を比較した「縦断研究」ではない。
2.「記憶の外部化」と「思考力の低下」を混同している
- 電話番号や道順の記憶は「暗記力」であり、批判的思考とは無関係。
- AIが単純作業を代替することで、人間は「創造性や戦略的思考」に集中できる可能性を無視している。
3. AIの種類を区別していない
- YouTubeの推薦アルゴリズム(受動的)とChatGPT(能動的)を同一視している。
- 生成AIは「思考の補助」にも使えるが、記事は「依存リスク」のみに焦点を当てている。
4. 教育レベルの影響の誤解がある
- 「高学歴=批判的思考力が高い」は短絡的なように思える。
- 実際は「メタ認知トレーニングの有無」が重要(例:情報リテラシー教育の未普及)。
5. AIのポジティブな可能性を無視している
- 例:複数視点の提示による多角的思考の促進、大量データの瞬時分析による意思決定の高度化。
- 歴史的教訓:電卓の普及は「計算力低下」を招いたが、「数学的応用力」を発展させた。
AI(特にChatGPT)を使う上で意識すべき5つのこと
これらを踏まえて、より適切な「AI(ChatGPTのような)を使う上で意識すべき5つのこと」を考えてみます。
1.「答え」ではなく、あくまで「仮説」として扱う
- ChatGPTの出力は「検証が必要な材料」と心得る。
- 例:判例を調べる際は、AIが挙げた事例を裁判所の公式データベースで確認する。
2. 思考の「入り口」にAIを活用する
- 悪い例:「レポートを代筆してもらう」
- 良い例:「論点の整理を手伝ってもらう」「反対意見をシミュレーションする」。
3.「なぜ?」を自問する習慣を持つ
- AIが提示した結論に対して、常に「なぜ?」「根拠は?」「反論は?」と問いかける。
- 例:ChatGPTが「A社の株価は上昇する」と答えたら、「その根拠となる財務データは?」と追求する。
4. 多様な情報源と照合する
- AIの出力を「1つの意見」と捉え、書籍・学術論文・一次情報と比較する。
- 実践例:ChatGPTに歴史的事実を聞いたら、国立公文書館のデジタルアーカイブで確認。
5. AIと自分の「役割分担」を明確化しておく
- AIに任せるタスク:データ整理、定型文作成、情報の優先順位付け。
- 人間が行うタスク:倫理的判断、創造的発想、コンテクストの解釈。
AIは「思考の敵」ではなく「思考の拡張装置」
「AIを使うとバカになる」という主張は、技術への過剰な懐疑と研究手法の限界から生まれた誤解です。本当に重要なのは、AIを「思考を止める言い訳」ではなく、「思考を深めるパートナー」として使いこなす姿勢なのではないでしょうか。
AI時代に必要なのは、単なる疑い深さではなく「能動的な検証力」です。ツールの特性を見極め、人間にしかできない思考領域を守り抜くこと。これこそが、テクノロジーに振り回されない「賢さ」を維持する秘訣でしょう。
僕自身、毎日何時間もChatGPTやGemini、DeepSeekを使いながらこの記事を批判的に分析できている事実が、逆説的ですが「AI依存=思考停止」という説の反証になっているのではないでしょうか。
──というか、ChatGPT-o1やDeepSeek-R1(Deep Thinking)などの推論モデルは「どういったプロセスで結論にたどり着いたか」も詳しく見ることができるので、それが『AIの思考プロセスを疑う練習』になり、むしろ批判的思考の筋トレになると思うんですけどね。
いや、だって自分よりずっと頭の良い人の思考プロセスを見られたら、普通にすごくないですか? AIの頭の中をのぞき見ながら『ここ怪しいな』『ほう、こういう思考プロセス方法もあるのか』とツッコんでるうちに、自然と疑う力が鍛えられるし。
印刷技術が『写本職人の魂を破壊する』と中世の学者が泣き叫び、テレビが『若者の読解力を殺す』と20世紀の教育者が嘆いたように、いつの時代も思考停止状態の人間ほど『新技術が思考を破壊する!』と騒ぐ集団ヒステリーが発生する。
AIバッシングもその延長線上にある、21世紀版の魔女狩り的な現象と言えなくもないでしょう。次は「量子コンピュータが人類の論理力を奪う」とか言い出すんじゃないですかね、この調子だと。