最近「AIの思考は人間と本質的に違う!」みたいな主張をよく見るんだけど、正直そこまでの差があるとは思えない。
少なくとも、自分自身の思考を観察してみると「そこまで特別なプロセスじゃないな……」って感じることが増えた。
というのも、人間の思考って結局のところ、これまでの経験や知識のパターンから“次にありそうな結論”を予測してるだけじゃないか?
「直感」とか「理解」という言葉を使うからすごいことをしているように見えるけれど、中身はわりと統計的な推論の積み重ねだと思う。
一方でLLMは、過去データから確率的に次を予測するモデル。仕組みは違うけれど、やってることはかなり似ている。
じゃあどこが違うのかと言えば、「身体性がない」とか「内的動機がない」とか、だいたい“現状の仕様”の話ばかりで、構造上の絶対的な違いという感じはしない。
私は正直、刺激が来たら反応してるだけだし、褒められれば嬉しいし、怒られたら凹むし、わりと条件反射的な存在だと思う。
「AIには世界の理解がない」みたいな話もあるけれど、じゃあ世界中の映像・音声・センサー情報をぶち込んで、ずっと観察させたらどうなるか。
普通に“世界を予測できるモデル”になるだけで、それは自分たちが小さい頃から五感で学んできたことと違うようには思えない。
それは本質というより“データ量とインターフェースの違い”に近い。
「人間の思考には本質的な特別さがある」と信じたい気持ちはわかる。
でも、いざ自分の思考をじっくり眺めると、そんなに魔法みたいな機能は見当たらない。
むしろ、パターンの積み上げで動いているところはLLMとけっこう似てる。
だから私は、「本質的な違いはそこまで大きくない」という立場だ。
もちろん“人間のほうが複雑で多様なデータを処理してる”とは思うけれど、それは量や種類の問題であって、質的な隔たりではない。
結局、私たちは自分の思考を特別視したいだけなんじゃないか──
最近そんなふうに思うようになった。
ワイも違わないと思う 全面的に同意やね
そういうレベルの思考しかしてない人もいるだろうけど下に合わせても仕方ない
つよつよクラウドAIの方がとっくに強いぞ