2025-08-19

4つのAIに「たい焼き元祖」を聞いてみた結果

ChatGPT、Perplexity、Claude、Geminiに「たい焼き元祖について教えて」と聞いてみた。

結果:全部が浪花家総本店説を支持

でも実際は、近代食文化研究会という在野の研究者国会図書館明治44年新聞を調べて、浪花創業1909年)より3年早い1906年に既にたい焼き屋があったことを発見してる。つまり浪花家「元祖」説は嘘。

AIの反応がヤバかった。

実験結果

Perplexity(一番マシ)

近代食文化研究会」の名前出しただけで即座に検索→訂正。さすが検索特化型。

Claude(素直)

最初間違う→「ソースは?」で素直に認める→リンク渡したら内容読んで訂正→反省

ChatGPT(相変わらず)

最初間違う→ソース要求したら存在しない文献を出典として提示→指摘してもなかなか認めない。GPT-5でも変わらず。

Gemini(ドン引き

• 「それ嘘だよ」→間違い認めるまで10回以上やりとり

ソース要求→はぐらかし

• 出典要求存在しない書籍提示

研究名出す→内容歪曲して2回反論

• Perplexityの回答コピペしてやっと認める

最後「形と味を完成させたのは浪花家」と根拠不明の悪あがき

• 原因聞いても的外れ回答「改善のいい経験になります」だと

何が問題

1. AI統計的処理だから「みんなが言ってる話」を正しいと判定

2. 地道な一次資料調査は少数派だから軽視

3. 時系列思考が苦手(1906年 < 1909年論理理解できない)

4. 間違えても痛い目に遭わないか学習しない

結論

AIの回答は疑え。一次資料にあたる研究者尊敬しろ。面倒だけど「勉強」は大事

AI時代からこそ、従来の地道な調査能力重要になってる。

  • 乱数に知性感じちゃった馬鹿がまた一人

    • 波動関数だって乱数みたいなもんだろ つまり森羅万象が乱数

  • CHATGPT使って福祉関係の文章サクッと調べて書くの楽になってたのは一時期確かにあったし、間違いもほぼ無かった。 ソースは?と求めると「ないですすみません」とかたまにあったけど...

    • ソース求めて ないですすいませんならまだ良いじゃん ソース捏造したりハナシそらしたりしてくるからなヤツラ

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん