脳内の信号は ほとんどが微弱な電気と化学の揺らぎで、頭蓋骨と数センチの軟組織に閉ざされています。
外へ漏れる磁場や電場はノイズ以下の強さで、受信側の脳までは届きません。
だから「念」だけでは直接届かない――それが物理的な第一の壁です。
近年、頭に微細電極を埋め込んだ Brain-Computer Interface (BCI) が進み、四肢麻痺の人が画面のカーソルを動かしたり、失われた声を合成音声で再現する例が現れました ([Business Insider][1], [Reuters][2])。
しかしそれは、脳波を一度デジタル符号に変換し、AIが解析して「クリック」や「発話」という命令語に戻す迂回路です。
結局、思考を共有するには――符号化→伝送→復号という“言語の代用品”がまだ要ります。
そもそも脳は一人ごとに結線も記憶も異なり、同じ単語でも発火パターンが微妙に違います。
言語はその差を埋めるための共有辞書であり、誤り訂正の仕組みでもあります。
辞書を捨て「念」のまま送れば、受信者は参照表のない乱数列を受け取るだけ。
だから音や文字という中間符号が欠かせない――それが第二の壁です。
AIと対話すると、モデルが文脈を補完してこちらの意図を先回りしてくれるので、「もう口に出さなくても通じる」と錯覚しがちです。
でも内部では巨大な確率辞書を介してトークンを並べているだけで、あなたの生のニューロン活動を読んでいるわけではありません。
未来には、非侵襲の超音波刺激や高密度EEGで脳間リンクを探る研究も続いています ([Nature][3], [NCCIH][4])。
それでも当面は、低帯域のBCI+言語モデルという「拡張音声」が主流でしょう。
直接“念”が届く世界へは、まだ数段の技術と共有プロトコルが要ります。
[1]: ttps://www.businessinsider.com/als-neuralink-patient-edits-video-brain-ai-voice-elon-musk-2025-5?utm_source=chatgpt.com "The first nonverbal patient to receive Elon Musk's Neuralink shares a video he edited and narrated using his brain chip"
[2]: ttps://www.reuters.com/technology/neuralink-implants-brain-chip-first-human-musk-says-2024-01-29/?utm_source=chatgpt.com "Elon Musk's Neuralink implants brain chip in first human | Reuters"
[3]: ttps://www.nature.com/articles/s41467-024-48576-8?utm_source=chatgpt.com "Transcranial focused ultrasound to V5 enhances human visual ..."
[4]: ttps://www.nccih.nih.gov/research/research-results/transcranial-focused-ultrasound-improves-the-performance-of-a-noninvasive-brain-computer-interface?utm_source=chatgpt.com "Transcranial Focused Ultrasound Improves the Performance of a ..."
なぜ念じただけで伝わらないのか?
脳内の信号は ほとんどが微弱な電気と化学の揺らぎで、頭蓋骨と数センチの軟組織に閉ざされています。 外へ漏れる磁場や電場はノイズ以下の強さで、受信側の脳までは届きません。 ...