2025-05-09

anond:20250509201329

脳内信号ほとんどが微弱な電気化学の揺らぎで、頭蓋骨と数センチの軟組織に閉ざされています

外へ漏れ磁場電場ノイズ以下の強さで、受信側の脳までは届きません。

から「念」だけでは直接届かない――それが物理的な第一の壁です。

近年、頭に微細電極を埋め込んだ Brain-Computer Interface (BCI) が進み、四肢麻痺の人が画面のカーソルを動かしたり、失われた声を合成音声で再現する例が現れました ([Business Insider][1], [Reuters][2])。

しかしそれは、脳波を一度デジタル符号に変換し、AIが解析して「クリック」や「発話」という命令語に戻す迂回路です。

結局、思考を共有するには――符号化→伝送→復号という“言語代用品”がまだ要ります

そもそも脳は一人ごとに結線も記憶も異なり、同じ単語でも発火パターン微妙に違います

言語はその差を埋めるための共有辞書であり、誤り訂正の仕組みでもあります

辞書を捨て「念」のまま送れば、受信者は参照表のない乱数列を受け取るだけ。

から音や文字という中間符号が欠かせない――それが第二の壁です。

AI対話すると、モデル文脈を補完してこちらの意図を先回りしてくれるので、「もう口に出さなくても通じる」と錯覚しがちです。

でも内部では巨大な確率辞書を介してトークンを並べているだけで、あなたの生のニューロン活動を読んでいるわけではありません。

未来には、非侵襲の超音波刺激や高密度EEGで脳間リンクを探る研究も続いています ([Nature][3], [NCCIH][4])。

それでも当面は、低帯域のBCI+言語モデルという「拡張音声」が主流でしょう。

直接“念”が届く世界へは、まだ数段の技術と共有プロトコルが要ります

から――今はまだ、静かに言葉を紡ぐしかないのです。

[1]: ttps://www.businessinsider.com/als-neuralink-patient-edits-video-brain-ai-voice-elon-musk-2025-5?utm_source=chatgpt.com "The first nonverbal patient to receive Elon Musk's Neuralink shares a video he edited and narrated using his brain chip"

[2]: ttps://www.reuters.com/technology/neuralink-implants-brain-chip-first-human-musk-says-2024-01-29/?utm_source=chatgpt.com "Elon Musk's Neuralink implants brain chip in first human | Reuters"

[3]: ttps://www.nature.com/articles/s41467-024-48576-8?utm_source=chatgpt.com "Transcranial focused ultrasound to V5 enhances human visual ..."

[4]: ttps://www.nccih.nih.gov/research/research-results/transcranial-focused-ultrasound-improves-the-performance-of-a-noninvasive-brain-computer-interface?utm_source=chatgpt.com "Transcranial Focused Ultrasound Improves the Performance of a ..."

記事への反応 -

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん