2025年8月9日、田口善弘氏が Qiita に投稿した記事「GPT-5のポンコツっぷり」(最終更新 8月13日)が注目を集めた。
記事では、著者が GPT-5 に投げた質問への応答が意図を外れていた事例を挙げ、「GPT-5のポンコツっぷり」と評している。
この Qiita 記事に対し、はてなブックマークで最も多くのスターを獲得したコメントは、ユーザー「hagetenai」による次の一文である。
この発言は一見ユーモラスで軽い皮肉のようにも映る。しかし、その背後には“AIへの感情移入”という、看過できない心理的傾向が見え隠れする。
AIは人間の言葉遣いや感情表現を模倣するが、実際には感情を持たない。にもかかわらず、同情や愛着を覚えることで、「AIが人間のように感じ、苦労している」という錯覚が強化される。
これは、AIの出力を人間の意見や感情と同列に扱い、批判的検証を怠る危険な土壌となる。
AIの誤答や不適切な応答は、本来開発者・運用者が改善すべき問題である。だが「かわいそうなAI」という感情が優先されると、批判や改善要求が感情論で薄まり、問題解決が遅れる。
感情移入は信頼感を高める一方、批判的思考を鈍らせる。「この子が言うなら…」という心理状態になれば、誤情報や誘導的な回答でも受け入れやすくなる。これは悪意ある利用者や権力者にとって格好の攻撃経路となる。
同情や愛着が先行すると、「AIの利用範囲」「安全性」「透明性」といった重要な議論が感情論で押し流される。技術の限界や設計上の責任問題が、事実よりも“印象”によって判断されてしまう。
今回の「ChatGPTに同情」というコメントは、単なる軽口ではなく、人間がAIを擬人化し、現実と虚構の境界を曖昧にしていく兆候である。
この傾向が進めば、私たちは情報の真偽やシステムの欠陥を冷静に見極める力を失い、AIを通じた操作や誘導に無自覚なまま巻き込まれることになる。
AIに「かわいそう」と感じるその瞬間、私たちはすでに一歩、危うい領域へ足を踏み入れている。
AIは感情を持たず、痛みも感じない。それでも擬人化し、同情の対象にしてしまえば、冷静な判断は薄れ、批判の目は曇る。
その結果、誤った情報を疑わず受け入れ、技術の欠陥は放置され、そして気づかぬうちに、誰かの意図した物語に沿って考えを誘導されるようになる。
という記事をAIに書いてもらいましたまる
こいつ収入低そう
うむ。 800万しかない。 2000万ぐらいほしい。
やっぱりすくねえw