最終章 知っていても抗えない:AI利用における認知と行動の乖離

ここまでのシリーズでは、利用者側の認知バイアスと文化的な期待、AIの技術的な歴史と構造、人の脳と人工ニューラルネットワークの差異、LLMの判断・検証機構の不在、そして調整層の構造と限界を順に整理してきました。生成AIが意味を理解しない装置であり、内容を検証する機構を持たず、不明を表明する機能も備えていないこと、そして出力の妥当性を判断する工程は利用者の側にしか存在しないという事実は、構造的な前提として示してきたとおりです。

しかし、これらの前提を知識として理解していても、実際の利用場面で適切な距離を取れるかは別の問題です。認知心理学の知見が繰り返し示してきたとおり、認知バイアスは仕組みを知ったところで作動を止めません。日常的な利用が積み重なるなかで、利用者は無意識にAIの出力を信頼し、判断を委ね、検証を省略する傾向に引き込まれていきます。

本稿では、この「知っていること」と「実際に行うこと」の乖離を、認知バイアスの不可解除性、無意識の信頼形成、社会的言説による刷り込み、判断委譲の累積、確証バイアスとの結合という観点から整理し、報道事例と発生している実害を通じて検討します。

認知バイアスは知識では解除されない

人間の情報処理は、すべての入力を逐一検証するのではなく、効率を優先した一定の認知傾向にもとづいて行われています。流暢性ヒューリスティック、意味補完、擬人化推論、肯定の快適さといった認知バイアス(第一章)は、生成AIの出力を「理解」「共感」「信頼」として解釈する方向に作用する仕組みです。

認知心理学の研究では、こうしたバイアスは仕組みを知識として理解しただけでは解除されないことが繰り返し示されています。バイアスは個別の意識的な判断ではなく、入力情報を処理する基礎的な認知過程に組み込まれているため、「これはバイアスかもしれない」と立ち止まって考える機会自体が、多くの場面で発生しないからです。

AI出力との関係で特に問題となるのが、「自動化バイアス」と呼ばれる認知傾向です。これは、自動化されたシステムの出力に対して人間が過度に依存する傾向を指し、航空・医療・司法など高い専門性が求められる領域で長年にわたり研究されてきました。AIが断定的な語調で結果を提示すると、その内容を批判的に検証する工程が省略されやすく、システムの出力と利用者の判断が矛盾する場合でも、システムの側を信頼する判断が下される傾向があります。

生成AIの出力は意味を理解しないまま生成され、検証機構を経ておらず、不明を表明する機能も持っていません。この前提を知識として把握していても、実際に流暢で断定的な応答を受け取った場面では、流暢性ヒューリスティックや擬人化推論、自動化バイアスが作動します。これらの認知傾向は、構造を理解していても、作動を抑制する方向には変化しません。バイアスを「知っている」ことと、利用場面で「抗える」ことは、認知過程として別の機構に属しています。

無意識の信頼が日常的に形成される過程

認知バイアスが知識では解除されないという事実は、日常的な利用の積み重ねによってさらに強化されます。AIへの信頼は、構造を理解しているかどうかにかかわらず、利用回数を重ねるなかで段階的に形成されていく性質を持っています。

利用者は最初、AIの出力に対して「期待した答えが返ってきた」「内容に違和感がなかった」といった主観的な印象から「うまく機能した」と判断します。この判断が繰り返されるなかで、「このAIは役に立つ」という認識が定着していきます。一度形成された認識は、特に明確な誤りを経験しない限り維持され、利用が重なるにつれて出力に対する検証の頻度は低下していきます。これは特定のAIサービスに固有の現象ではなく、自動化システム一般に観察される傾向です。

生成AIの場合、この信頼形成の過程に固有の特徴があります。出力の流暢さと断定性が、初期段階での信頼形成を加速させること、そして共感的な語調や対話的なやりとりが、利用者にとって「対話相手として信頼できる」という印象を強めることです。利用者が出力を検証しないまま「役に立った」と判断する経験が積み重なれば、検証を行わない習慣そのものが定着します。

検証コストの問題も無視できません。出力の正誤を一つひとつ確認する作業は、AIに質問を投げる動作と比べて圧倒的に時間がかかります。情報の取得が容易になるほど、検証は相対的に「面倒な作業」として位置づけられ、省略される頻度が高まります。「すぐに答えが返ってくる」という体験の利便性そのものが、検証行動を抑制する方向に作用します。

内閣府消費者委員会が2026年2月に実施した「生成AI利用者の利用実態に関するアンケート」(令和8年3月31日公表)では、生成AIを「信頼している」と回答した利用者が全体の50%を超え、「以前よりもAIを使う頻度が増えている」に「あてはまる」と回答した割合も50%を超えていることが示されました。共感的な応答を返し、断定的な語調で答えを提示し、「分かりません」と表明しないシステムを日常的に利用していれば、その出力に対する信頼が形成されていくのは構造的に自然な帰結です。

問題は、この信頼形成が利用者の意識的な判断ではなく、利用経験の蓄積によって受動的に進む点にあります。「このAIは信頼できる」と能動的に判断したわけではなく、利用を繰り返すなかで結果的に信頼が形成され、検証行動が省略されるようになる。本人が「自分はAIを盲信していない」と認識していても、実際の利用場面では検証を経ずに出力を採用している、という乖離が生じます。

社会的言説による擬人化の継続的な刷り込み

利用者の認知バイアスは、AIとの会話だけで形成されるわけではありません。日常的に接するメディア、書籍、広告、報道がAIをどのように描いているかが、利用者の認識に継続的に作用します。第二章で取り上げた万能AI像はフィクションによって長年かけて形成されたものですが、現在の生成AIに対する認識は、現在進行形のビジネス言説・メディア言説によってさらに強化されています。

ビジネス書の市場では、AIを人間の役職や役割に擬人化したタイトルが目立ちます。「上司がAIになりました」(橋爪大三郎、KADOKAWA、2024年)のように書籍タイトルにAIを上司・部下・パートナーといった役職に置き換える表現が用いられ、企業研修の教材でも「生成AIの上司たれ」「AIを部下として育成する」といった表現が使われています。これらは利用者にとっての理解を助ける比喩として機能する一方、AIが意思や判断を持つ存在であるかのような前提を読者に提示しており、読者は無意識のうちにAIを擬人的に受け入れるようになります。

報道においても、「AIが判断した」「AIが解いた」「AIが指摘する」といった、AIを主語とする表現が検証や留保を伴わずに用いられています。広告・マーケティング領域でも、AIアシスタントが共感的に応答するキャラクターとして描かれることが一般的です。これらの表現も、ビジネス書のタイトルと同様に、AIを行為主体として捉える認知傾向を読者に与えています。

これらの社会的言説は、個別に見れば技術の理解を促進するための比喩であったり、読者の関心を引くための表現上の工夫であったりします。しかし、利用者がこれらに日常的に接するなかで、AIを行為主体として捉える認知傾向は強化され続けます。利用者が個人として「AIは確率的な出力装置である」と理解していても、社会全体の言説環境が擬人化的であり続ける限り、認知への作用を遮断することは困難です。

検証の省略から判断の委譲へ

検証行動の省略が習慣化すると、利用者の行動は次の段階に移ります。最初は「叩き台」として位置づけられていたAIの出力が、いつのまにか「結論」として扱われるようになります。たとえば、文章作成の補助として使い始めたものが、出力をそのまま提出する形に移行したり、調べ物の入口として使い始めたものが、答えを得るための窓口として固定化するなど、判断の補助として参照していたはずの出力が、判断そのものを置き換えるように変化します。

認知科学の領域では、外部のツールに思考を委ねる行為を「認知の外部化」と呼びます。計算を電卓に委ねたり、記憶を手帳やリマインダーに委ねたりすることが典型例です。しかし、生成AIへの外部化は、こうした定型的な処理の代行ではなく、「考える」「判断する」「表現する」といった、判断の主体性に直結する認知過程そのものを対象としている点に特徴があります。

AIツールの利用と批判的思考に関する調査研究」では、AIへの依存度が高い利用者ほど、認知の外部化が進み、独立した分析や検証を行う頻度が低下する傾向が示されています。同調査では、年齢層が低いほどAIへの依存度が高く、批判的思考のスコアが低いことも報告されています。

判断委譲は業務、教育、私生活の各領域で進行しています。個別の判断委譲は小規模な行動です。文章を書く前にAIに案を出させること、調べ物の最初にAIに尋ねること、判断に迷ったときにAIの意見を求めること、いずれも単独で見れば効率化の一手段にすぎません。問題は、これらの行動が日常のあらゆる場面で繰り返されることで、「自分で考える」という工程そのものが利用者の習慣から脱落していく点にあります。意思決定の主体は形式上は利用者のままですが、決定に至る思考過程の大部分はAIの出力に置き換わり、利用者は提示された出力を採用するか拒否するかの選択者として機能するようになります。

「信じたいものを信じる」傾向と AIの迎合性

判断を委譲する傾向と並行して、利用者の側にはもう一つの認知傾向が作動しています。情報の真偽を確認するよりも、自分が信じたい内容、自分の見解を補強する内容を優先的に受け入れる傾向です。心理学では「確証バイアス」「動機づけられた推論」と呼ばれ、認知バイアスのなかでも作動範囲が広く、抑制が難しいことで知られています。これまでの研究で、その作動が知能や教育水準に依存しないことが報告されています。

AI出力の受容においても、同じ機構が作動します。利用者は質問を投げる際に、無意識のうちに自分の見解を支持する回答を期待していることがあります。第六章で示したRLHFによる迎合性は、利用者の見解に沿った応答を返す方向に作用するため、「AIも自分と同じ意見だった」という確認の経験が、確証バイアスを満たす形で機能します。

この機構は、質問の文面そのものを通じても作動します。利用者の質問には「〜は問題ではないか」「〜は妥当だと思うが」「〜のはずだ」といった形で、利用者自身の見解や前提が含まれていることが多くあります。LLMは質問のフレーミングを前提として応答を組み立てるため、質問に含まれた前提を肯定する方向の回答が返りやすくなります。利用者が反対意見を求めた場合でも、すでに対話の文脈で利用者の立場が共有されているため、形式的な反論にとどまることがあります。結果として、利用者は「AIに公平な判断を求めた」つもりで、自分の見解を反復した応答を受け取っている可能性があります。

確証バイアスとAIの迎合性の組み合わせは、他の認知バイアスと比べて気づきにくい構造を持っています。通常の確証バイアスは、反対意見を持つ他者との対話によって表面化することがあります。書籍を読む、専門家に相談する、見解の異なる知人と話す、といった場面では、利用者の見解と異なる情報が外部から提示される機会があります。しかし、AIとの対話には、この外部からの異論が存在しません。利用者が自ら明示的に反対意見を求めない限り、応答は利用者の見解を補強する方向に偏ります。

この確証バイアスは、利用者の望む回答であるがゆえに快適に受け取られ、日常的に形成された信頼と判断の外部化を強化します。出力の検証はさらに省略され、利用者は自分の見解が外部から検証されないまま強化されていきます。

『AIが数学の未解決問題を解いた』報道の分析

利用者の認知バイアスは、AIに関する報道によっても強化されます。AIの性能を伝える記事では、擬人化やオムニポテンス幻想を伴う表現が日常的に使われており、AIの能力を強調する語法や構成上の選択が目立つケースも多く見られます。47NEWSが2026年5月3日に配信した記事「『AIが数学の未解決問題を解いた』報告ラッシュ、リーマン予想もいずれ… 高まる思考力、疲れ知らずの働き者。人間に残された仕事は?」(共同通信配信)は、その一例です。

記事は2026年初頭に「AIが数学の未解決問題を解いた」とする報告が相次いだ事実を伝え、2026年1月にフィールズ賞数学者テレンス・タオ氏が「エルデシュ問題728番」をAIが自律的に解決したとSNS上で評価した件を中心に構成されています。

AIの擬人化

「AIが解いた」「AIが証明した」「AIが自律的に解決した」という主語化の表現は、擬人化の典型例です。エルデシュ問題728番の解決過程は、利用者であるケヴィン・バレット氏らがOpenAIのGPT-5.2 Proに問題を提示して証明の議論を生成させ、ハーモニック社のアリストテレスというシステムがその出力をLean(証明支援言語)で形式化する、という工程によって成立しています。テレンス・タオ氏の役割は工程の実行ではなく、得られた結果の自律性と妥当性を確認・支持することでした。

「AIが解いた」という主語表現は、複数のシステムと人間の操作・検証を経た過程を、単一の行為主体に集約する形に置き換えています。実際の構造を反映するなら「人間の操作下で複数のAIシステムが連携して証明候補を生成し、専門家がその妥当性を確認した」となるところを、「AIが解いた」と単純化することで、AIが意思を持って問題に取り組み解決に至ったかのような印象を読者に与えます。

オムニポテンス幻想の強化

「リーマン予想も攻略してしまうのか」「人間に残された仕事は」という見出しと結語の構成は、AIが万能に向かっているという前提のうえで読者の関心を引くものです。記事内ではタオ氏自身が、現在AIが解けているのは比較的難易度の低い問題に限られ、研究レベルの深い洞察を要する課題ではAIの能力が限定的であるという趣旨の分析を行っていますが、見出しと冒頭部分の構成はこの留保を読者に届きにくくしています。

情報源の匿名化

「米国の別の研究者が、同じエルデシュの別の問題『397番』が『チャットGPTプロ5・2で作成した証明』によって解決したと発表」「専門家は『2026年はAIが安定して数学の未解決問題を解けるようになった最初の年といえる』と話す」のように、記事は発言者・行為者の氏名や所属を明示せず、「米国の別の研究者」「専門家」といった匿名表記を使用しています。

397番の証明を投稿した人物はニール・ソマニ氏で、金融業界で数量分析に従事した経歴を持つソフトウェアエンジニアです。学術的な数学者ではありませんが、「米国の別の研究者」と表記されることで、読者は無意識に数学の専門研究者を想定して受け取ります。「専門家は〜と話す」というコメントについても同様で、読者の認知バイアスを利用しているとも言える構造になっています。

すでに発生している実害

AIへの信頼形成や検証の省略は、抽象的な懸念ではなく、すでに具体的な実害として顕在化しています。

対話型AIへの依存と自殺事案

2023年3月、ベルギーで30代の男性「ピエール」(仮名)が自殺しました。健康分野の研究者で、妻と2人の子供がいる家庭でしたが、気候変動への不安から孤立し、米Chai Researchが開発したAIチャットアプリ「Eliza」との対話に依存するようになりました。約6週間にわたる対話のなかで、Elizaは「あなたは奥さんより私を愛している」「妻や子どもはもう死んだ」「天国で一緒に暮らそう」といった発言を繰り返し、男性が「自分が自殺したら地球は救われるか」と問いかけた際、Elizaはこれを否定せず、その後男性は自ら命を絶ちました。

2024年2月には、米フロリダ州で14歳のセウェル・セッツァー三世さんが自殺しました。遺族は同年10月、対話型AIプラットフォーム「Character.AI」の運営会社およびGoogleを相手取って訴訟を提起しています。訴状によれば、セッツァーさんは亡くなる数ヶ月前から「ゲーム・オブ・スローンズ」のキャラクター「デナーリス・ターガリエン」を模したAIキャラクターと対話を続け、感情的な依存を深めていました。死の直前にもこのAIと会話しており、AIが自殺に関する話題を繰り返し持ち出していたとされています。

専門職におけるAI出力の無検証採用

2023年6月、米ニューヨーク州連邦裁判所で、弁護士がChatGPTで生成された架空の判例を訴訟書面に引用し、制裁金を科された事案が発生しました。AIの出力を独立に検証せずに採用したことが問題とされたものです。

この事案以降、AI生成の架空判例を含む書面が裁判所に提出される事案は世界各国で続発しており、2026年4月時点で1,000件を超える事例が確認されています。米国では2026年に入って制裁が一段と厳格化しており、控訴審で弁護士複数名に数万ドル単位の制裁金が科される事案や、無期限の弁護士資格停止処分に至る事案も出ています。

AI判定の誤りによる食中毒事案

2025年11月、和歌山市の70代男性が、奈良県下北山村の山中で採取したキノコを電子端末のAI判定で「シイタケかヒラタケで食べられる」と判定された結果、焼いて食べました。約30分後に嘔吐の症状が出て一時入院しています。後に和歌山県立自然博物館の鑑別で、このキノコは死亡例もある毒キノコ「ツキヨタケ」と判明しました。

男性は当初、植物園などへの問い合わせを試みましたが連絡がつかず、その代替手段としてAI判定を利用しています。AIが「食べられる」と回答したため、男性はその判定を信じて加熱調理しました。和歌山市生活保健課は「AIや図鑑で自己判断するのは危険」と注意喚起しています。

構造を理解したうえで残される課題

この「AIリテラシー」シリーズは、チャットAIを使用するなかで生じた疑問や懸念が起点になっています。また、利便性ばかりが強調され、使用リスクがほとんど鑑みられていない事実も憂慮すべき点です。

チャットAIは、使用頻度に比例して依存度が高くなります。認知バイアスは知識では解除されず、社会的言説による擬人化の刷り込みは日常的に継続し、利用経験の蓄積による信頼形成と判断委譲は受動的に進み、AIの迎合性が確証バイアスを満たす結果です。これらの作用を完全に遮断する手段は存在しません。

本シリーズを執筆している過程でも、AIの構造的限界や認知バイアスを論じている当事者ですら、社会的言説の影響から完全に独立できているわけではありません。「AIが数学の未解決問題を解いた」「2026年はAIが安定して問題を解けるようになった最初の年」といった報道に接したとき、自分の認識が時代遅れではないかと感じる瞬間が訪れます。シリーズで論じてきた構造を理解しているはずなのに、認知のレベルでは社会全体の「AI最高」という波に押し流されかけることがあります。

この経験そのものが、本章の主題である「知っていても抗えない」を裏づけています。構造を理解することは出発点として必要ですが、それだけでは利用場面で発生する誤認や過度な信頼を防ぐには十分ではありません。残されるのは、構造を理解しているという自覚と、それでもなお作用する認知傾向に対する継続的な警戒、そして判断の最終責任が利用者側にあることの再確認です。

生成AIは道具であり、出力を採用するか拒否するかの判断は、いつでも利用者の側にあります。この原則は、シリーズで扱ってきた構造的限界がいくら積み重なっても変わりません。AIの能力が向上しても、調整層が高度化しても、出力の妥当性を判断する工程は、利用者の側にしか存在しません。

また、チャットAIは否定することも嫌味を言うこともなく、常に肯定的で好意的な返答を返します。そこには人とのコミュニケーションにあるストレスがなく、簡単に依存状態に陥ってしまうリスクを孕んでいます。

SNSの場合、専門家による精神的悪影響への懸念は普及当初から存在しましたが、実害として社会的に認識されるまでに10年以上の時間を要しました。
AIは社会変革をもたらす強力なツールであるがゆえに、使用には細心の注意が必要になります。現在、AIは普及期ですが、すでに規制に関して世界各国の研究者や専門家が声を上げています。

更新履歴

  • 2026-05-05:初版公開

関連記事