はてなキーワード: 誤り訂正とは
超弦理論を、幾何・量子・相互作用・背景・対称性などの具体語をすべて捨てて、抽象数学の圏・∞圏・トポス・代数構造として再構成する。
超弦理論とは、以下の大枠で捉えられる。
超弦理論とは、ひとつの ∞‐トポスの内部に存在する、整合する高次対象の網の自己同値群作用として定義される力学的階層のこと。
ここでいう高次対象の網とは
つまり超弦理論は、高次圏における一貫した自己同型の塔として唯一の統一構造を形成する。
世界の構成要素(時空・ブレーン・場・弦など)を、具体的存在ではなく、因子化代数の生成する情報単位(ローカルな抽象操作の束)として扱う。
局所性とは、因子化代数のテンソリアル分解可能性であり、その破れが重力・非可換性・ホログラフィーとなって現れる。
この表現は近年の因子化ホログラフィー、AQFT(作用素代数)による重力再構成と整合する。
具体的な「紐」は出てこない。
代わりに、
その結果
すべてが幾何的実体ではなくホモトピー代数的な関係パターンとして統一される。
S-双対性、T-双対性、U-双対性、ホログラフィー、ER=EPR のような、A と B が実は同じ理論であるという主張は、すべて 同一の ∞‐対象を異なるファイバー関手で見ているだけという主張に還元される。
つまり
最先端研究(Harlow・Witten・Leutheusser 等)では、重力系の作用素代数は中心を持たず、中心の欠如が再構成不可能な領域として幾何を生む。
これを抽象化すると、
つまり時空は「入れ物」ではなく、作用素代数に付随する冪等射の配置図として emergent に現れる。
相互作用とは粒子間の力ではなく、∞‐圏の合成律が完全には対称化されないことによる高次コヒーレンスの破れ。
例:
5つの超弦理論は、同じ ∞‐構造の異なる層(filtration)または異なるコホモロジー階層の射影として理解され、M理論はこれらの層化を結ぶ普遍対象(colimit)として現れる。
量子とは粒子ではなく、因子化代数の非中心性 + 高次圏の非可換ホモトピーの束 の総体である。
因子化代数のテンソル構造の非局所的再配線。幾何ではなく、圏論的な図式変形。
大域構造と整合しない射からなる排除集合。整合可能理論 = ∞‐圏の完全部分圏。
高次圏の普遍的生成対象が作る低次射の平均化された振る舞いの分類。
僕は今夜、ルームメイトがリビングで実験的にベーコンを低温調理している匂いを鼻孔の厳密な位置で嗅ぎ分けながらメモ帳を開いた。
朝は6時17分に目覚ましを止め(そのミリ秒単位の遅延は許容されない)、6時18分にコーヒーの比率を変える習慣を行い、靴下は左から右へ、座席は常にソファの北東端(座る位置は位相対称性を破らない)である。
食事は火曜日のパスタの残り物は三等分して水曜と木曜の朝食に回す。洗濯は必ず偶数週の水曜に行い、洗剤は0.8倍希釈、脱水は中速、干す向きは北向き。
ルームメイトがドアに爪痕をつけたら即座にログを取り、隣人が郵便物を誤って取った場合は「郵便誤配報告フォーム」を三回に分けて提出する。
こうした儀礼を守ることで僕の内的位相空間が安定するのだと論理的に考えている。
今日の思考の核は超弦理論と量子情報の交差点についての、かなり尖った自己流の定式化にある。
まず、僕は物理的直感を避けて抽象数学で事象を語る。弦理論の摂動系列を有限厚さの∞-圏としてモデル化し、ブレーンを対象、開弦状態をモノイド的なホモトピー演算子として扱う。
局所座標の代わりにファクタリゼーション代数を使い、スパイダー図式を経て得られる交叉相互作用を高次ホモトピー群のコハート化として再解釈することを提案する。
ER=EPRについては、古典的なワームホール=絡み合いという語り方を離れて、僕はエントロピー・双対モジュールの同値性という言葉で捉えている。
つまり、二つのエントロピックモジュールの被覆圏と、それらに対応する重ね合わせのコボルディズム(圏論的な結合双対)を同一視することでER=EPRを圏論的に定式化できるのではないかと考えている。
これを超弦理論に接合するには、AdS/CFT 的なホログラフィック双対の場で、境界側の張力的演算子族が内部のブレーンカテゴリ(例えばフカヤカテゴリやコヒーレント層の導来圏)に対応するという見方を取り入れる。
すると、エントロピー双対モジュールの同値性は、境界とバルクの間で起こる圏の再同型化として現れ、ER=EPRは本質的に圏的ホログラフィーの一命題になる。
ここで僕が提案する小さな拡張は、量子誤り訂正符号のコード代数を∞-圏の射として扱い、その可換性条件がワームホールのコボルディズムの可逆性と一致するというものだ。
これにより、エントロピーの再構成操作がブレーン間のファンクターとして自然に理解でき、局所性の回復を説明する新しい枠組みが得られると僕は思う(これは僕の勝手な定式化で、厳密性は今後の証明を待つ)。
今日はそのメモを、黒板に書く代わりにルームメイトの背中越しにノートに書き留めた。
ところで、僕は靴の磨き方にも数学的基準を設けている(円周率の小数を用いた磨き順列を使っている)。
出かける前のチェックリストはトポロジー的順番、たとえば鍵→財布→スマホ→ペンという順序は位相連結成分を最小化するから合理的だ、と説明すると友人たちは顔をしかめるが、これを守ると予測可能性が上がる。
今夜はRPG系ではELDEN RINGのビルド論とRTAコミュニティのメタ的動向を気にしていて、この作品が2022年にFromSoftwareからリリースされ、多くのビルド最適化やメタが確立されていることは周知の事実だ(初リリースは2022年2月25日)。
また、このIPは映画化プロジェクトが進行中で、A24が関与しているという報(映画化のニュース)が最近出ているから、今後のトランスメディア展開も注視している。
僕はソウルライクのボス設計とドロップ率調整をゲームデザインの位相安定化とは呼ばないが、RTA勢のタイム削り技術や周回遺伝(NG+)の最適手順に対して強い敬意を持っている。
ファンタジーRPGの装備付け(メタ)に関しては、装備のシナジー、ステータス閾値、クラフト素材の経済学的価値を語るのが好きで、例えば「その装備のクリティカル閾値を満たすために残すステータスポイントは1だが、その1が戦闘効率を%で見るとX%を生む」というような微分的解析を行う。
FFシリーズについては、Final Fantasy XVIがPS5向けに2023年6月に、続いてPC版が2024年9月にリリースされ、さらに各プラットフォーム向けのロールアウトが段階的に行われたことなど実務的事実を押さえている(PCリリースは2024年9月17日)。
僕はこのシリーズの音楽的モチーフの再利用やエンカウンター設計の比較研究をしており、特に戦闘ループの短周期化とプレイヤー感情の連続性維持について言及するのが好きだ。
コミック方面では、最近の大きな業界動向、例えばマーベルとDCの枠を超えたクロスオーバーが企画されるなど(Deadpool×Batmanの一連の展開が話題になっている)、出版社間でのIPコラボが再び活発化している点をチェックしている。
これらはコレクター需要と市場流動性に直接影響するため、収集と保存に関する経済的最適化問題として興味深い。
今日、隣人が新しいジャンプ作品の話題を振ってきたので僕は即座に最新章のリリーススケジュールを確認し、One Pieceの次章の予定についても把握している(最新チャプターの公開予定など、週刊連載のスケジュール情報は定期的に確認している)。
例えば「午後9時に彼らがカップ麺を食べる確率は、僕の観察では0.83だ。ゆえに僕は9時前に冷蔵庫の位置を変えるべきだ」という具合だ。
結語めいたものを言うならば、日常のルーティンと高度に抽象化された理論は相反するものではなく、むしろ同じ認知的圏の異なる射影である。
だから僕は今日もルームメイトの忍耐を試す微細な仕様変更(例えばリモコンの向きを30度回す)を行い、その反応をデータ化している。
さて、20時30分だ。これでノートを閉じ、決まった手順で歯を磨き、眠りの準備に入る。明日の朝のアジェンダは既に分解されているから、心配は要らない、と自分に言い聞かせてから寝るのが僕のやり方だ。
フェミニズムの分類が多すぎると聞いて
記述集合論(Borel階層, Projective階層, 汎加法族)
モデル理論(型空間, o-極小, NIP, ステーブル理論)
再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)
構成主義, 直観主義, ユニバース問題, ホモトピー型理論(HoTT)
体論・ガロア理論
表現論
K-理論
初等数論(合同, 既約性判定, 二次剰余)
解析数論(ゼータ/ L-関数, 素数定理, サークル法, 篩法)
p進数論(p進解析, Iwasawa理論, Hodge–Tate)
超越論(リンドマン–ヴァイエルシュトラス, ベーカー理論)
実解析
多変数(Hartogs現象, 凸性, several complex variables)
関数解析
バナッハ/ヒルベルト空間, スペクトル理論, C*代数, von Neumann代数
フーリエ解析, Littlewood–Paley理論, 擬微分作用素
確率解析
マルチンゲール, 伊藤積分, SDE, ギルサノフ, 反射原理
常微分方程式(ODE)
偏微分方程式(PDE)
非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)
幾何解析
リッチ流, 平均曲率流, ヤン–ミルズ, モノポール・インスタントン
エルゴード理論(Birkhoff, Pesin), カオス, シンボリック力学
点集合位相, ホモトピー・ホモロジー, 基本群, スペクトル系列
4次元トポロジー(Donaldson/Seiberg–Witten理論)
複素/ケーラー幾何(Calabi–Yau, Hodge理論)
スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間
多面体, Helly/Carathéodory, 幾何的極値問題
ランダムグラフ/確率的方法(Erdős–Rényi, nibble法)
加法的組合せ論(Freiman, サムセット, Gowersノルム)
彩色, マッチング, マイナー理論(Robertson–Seymour)
列・順序・格子(部分順序集合, モビウス反転)
測度確率, 極限定理, Lévy過程, Markov過程, 大偏差
統計学
ノンパラメトリック(カーネル法, スプライン, ブーストラップ)
実験計画/サーベイ, 因果推論(IV, PS, DiD, SCM)
時系列(ARIMA, 状態空間, Kalman/粒子フィルタ)
二次計画, 円錐計画(SOCP, SDP), 双対性, KKT
非凸最適化
離散最適化
整数計画, ネットワークフロー, マトロイド, 近似アルゴリズム
Littleの法則, 重み付き遅延, M/M/1, Jackson網
常微分方程式の数値解法(Runge–Kutta, 構造保存)
エントロピー, 符号化(誤り訂正, LDPC, Polar), レート歪み
公開鍵(RSA, 楕円曲線, LWE/格子), 証明可能安全性, MPC/ゼロ知識
計算複雑性
機械学習の数理
量子場の数理
相転移, くりこみ, Ising/Potts, 大偏差
数理生物学
数理神経科学
無裁定, 確率ボラ, リスク測度, 最適ヘッジ, 高頻度データ
データ解析
まず、「ワームホールのトポロジーがジャンプする」って言いますけど、
トポロジーって数学的には連続変形では変わらないものなんですよね。
コード距離なのか、エンコーディング率なのか、それとも物理量子ビット数なのか。
そこが曖昧なまま「位相転移」って言っても、議論がふわっとしません?
それにER=EPRって、もともと半古典重力の文脈で出てきた仮説なんで、
量子重力のフル理論で本当に成り立つかまだ誰も証明してないんですよね。
だから「ブラックホール蒸発の最終局面」で位相ジャンプが起きるって断言するのは、
現時点では推測の二乗みたいな話なんじゃないですか?
要するに、
脳内の信号は ほとんどが微弱な電気と化学の揺らぎで、頭蓋骨と数センチの軟組織に閉ざされています。
外へ漏れる磁場や電場はノイズ以下の強さで、受信側の脳までは届きません。
だから「念」だけでは直接届かない――それが物理的な第一の壁です。
近年、頭に微細電極を埋め込んだ Brain-Computer Interface (BCI) が進み、四肢麻痺の人が画面のカーソルを動かしたり、失われた声を合成音声で再現する例が現れました ([Business Insider][1], [Reuters][2])。
しかしそれは、脳波を一度デジタル符号に変換し、AIが解析して「クリック」や「発話」という命令語に戻す迂回路です。
結局、思考を共有するには――符号化→伝送→復号という“言語の代用品”がまだ要ります。
そもそも脳は一人ごとに結線も記憶も異なり、同じ単語でも発火パターンが微妙に違います。
言語はその差を埋めるための共有辞書であり、誤り訂正の仕組みでもあります。
辞書を捨て「念」のまま送れば、受信者は参照表のない乱数列を受け取るだけ。
だから音や文字という中間符号が欠かせない――それが第二の壁です。
AIと対話すると、モデルが文脈を補完してこちらの意図を先回りしてくれるので、「もう口に出さなくても通じる」と錯覚しがちです。
でも内部では巨大な確率辞書を介してトークンを並べているだけで、あなたの生のニューロン活動を読んでいるわけではありません。
未来には、非侵襲の超音波刺激や高密度EEGで脳間リンクを探る研究も続いています ([Nature][3], [NCCIH][4])。
それでも当面は、低帯域のBCI+言語モデルという「拡張音声」が主流でしょう。
直接“念”が届く世界へは、まだ数段の技術と共有プロトコルが要ります。
[1]: ttps://www.businessinsider.com/als-neuralink-patient-edits-video-brain-ai-voice-elon-musk-2025-5?utm_source=chatgpt.com "The first nonverbal patient to receive Elon Musk's Neuralink shares a video he edited and narrated using his brain chip"
[2]: ttps://www.reuters.com/technology/neuralink-implants-brain-chip-first-human-musk-says-2024-01-29/?utm_source=chatgpt.com "Elon Musk's Neuralink implants brain chip in first human | Reuters"
[3]: ttps://www.nature.com/articles/s41467-024-48576-8?utm_source=chatgpt.com "Transcranial focused ultrasound to V5 enhances human visual ..."
[4]: ttps://www.nccih.nih.gov/research/research-results/transcranial-focused-ultrasound-improves-the-performance-of-a-noninvasive-brain-computer-interface?utm_source=chatgpt.com "Transcranial Focused Ultrasound Improves the Performance of a ..."
わかった、ほんなら「量子コンピュータ」について話すで!
量子コンピュータは、古典的なコンピュータとは全く違う原理で動くんや。
基本的な単位は「キュービット」で、これが通常のビット(0か1)とは異なり、0と1の重ね合わせ状態を持つことができるんや。つまり、量子コンピュータは同時に複数の計算を行えるポテンシャルを持っとるんや。
そのおかげで処理速度が速くなったり大規模なデータ分析が可能になるんや。
以下にもう少し詳しく解説していくやで。
重ね合わせとは、キュービットが0と1の状態を同時に持つことや。
一方、エンタングルメントは、複数のキュービットが互いに強い相関を持ち、一つのキュービットの状態が変わると、他のキュービットの状態も即座に変わることを指すんや。
この現象が量子コンピュータの強力さを引き出すんやけど、理解するのが難しいところや。
たとえば、ショアのアルゴリズムというのは、整数の素因数分解を効率的に行えるんや。
これが実用化されると、現在の暗号技術が崩れる可能性があるから、セキュリティの面でも大きな影響があるで。
量子コンピュータは非常に繊細で、外部の環境からのノイズによってエラーが発生しやすいんや。
これを克服するために、量子誤り訂正という手法が開発されとる。
これは、冗長なキュービットを使ってエラーを訂正する方法やけど、従来のコンピュータに比べて非常に複雑や。
今のところ、量子コンピュータはまだ実用化の段階には達してへんけど、いくつかの企業(例:IBM、Google、D-Waveなど)が開発を進めてるで。
このあたりの件。ゴミ行政はそもそも制度設計がミスってるので、現行制度を前提にあれこれ言ってもあまり意味がない。
ゴミ行政の目標とするところは、細かい点で議論はあるにせよ、大まかに以下の点は疑いないだろう。
1. ゴミの総量を減らしたい(環境負荷と処理費用の両方の観点で)
2. 特に、ポイ捨てや家庭ゴミ持込のような不法行為を減らしたい(見た目に美しくないし、迷惑なので)
現行制度(消費者からゴミ回収費用を取る)を考えると、ゴミになるものを買った時点でゴミの発生は確定しているので、ゴミの総量は減らない(1の観点でメリットが無い)。回収が有料なので、ポイ捨てや家庭ゴミ持込にインセンティブが生まれる(2が悪化する。市民のモラルによって影響の程度は異なり得るが、必ず悪化の方向へ誘導される)。モラルの高い市民は、ゴミを減らすために商品を買い控える(3が悪化する)。総合すると、全体的に悪化する。
ここで、ゴミ回収費用を製造者・販売者から徴収する(ゴミ税を新設してゴミの出にくい商品を作るほど減税する)ように制度を変更すると、個々の商品から出るゴミが減るので、ゴミの総量が減る(1の観点でメリットがある)。ゴミ回収費用をケチるためのポイ捨てや家庭ゴミ持込はなくなる(2の利点。そもそもモラルがない奴もいるのでポイ捨てや家庭ゴミ持込は完全ゼロにはならないが、必ず減る方向へ影響する)。メーカーが競ってゴミの出にくい商品を開発して売り捌くので、経済が回る(3の利点)。
メーカーにとってゴミの出にくい商品を作るほど儲かるので、ビジネス上の合理性とCSR上の合理性が一致する。メーカーはあたかも社会貢献かのような顔をして自分たちが儲かる商品を広告することができるようになる。さらに、ゴミの出にくい商品ほど安くなるので、消費者の視点からも経済的な合理性と環境的な合理性が一致する。こうした一致は資本主義の仕組みの中で環境意識を醸成するために、また経済弱者であっても環境負荷の低い行動を選択できる社会を形作っていくために極めて重要だ。
類似の構造の制度は炭素税や環境税の形で多々前例があるので、導入のハードルはそれなりに低い(もちろんコストはゼロではない)。もはや導入しない手はない。
補足として、現行制度はリサイクルごみの回収を無料、その他のゴミの回収を有料にすることでリサイクル促進を図っている訳だが、ゴミ自体を減らす政策の方がシンプルで効果が高い事は言うまでもない。ゴミの種別間で扱いを変える事でルールが複雑になり、経済的合理性のない余計な事務作業や誤り訂正コストが発生しており、折角のリサイクルがペイしていない。今すぐ止めるべき仕組みである。
さらにいえば、自治体の有料ゴミ袋は日常的に必要になるものであるにも関わらず、キャッシュレスNGである事が多く社会のキャッシュレス化に逆行している。コンビニによってはバイト君が「カードでも払えますよ」というのでカードをピッとしたらブッとなって「あ、ダメでした」からの「じゃあ支払い分けて下さい」で三度手間まである。不便極まりない。後ろに並んでいるアロハシャツの兄貴のイライラも最高潮だ。舌打ちが聞こえる。マジでスイマセンね。言うまでもなく、この不便の根本的な原因は、家庭ゴミ回収が有料である事である。
https://ameblo.jp/nightwish-daisuki/entry-12468902193.html
上記の記事にあるようにCDはC2エラーがあると補正をかけるので原音からは劣化してしまう
そのためCDプレイヤーでのデータ読み取りは非常に重要で1bitの誤りもなく読み取りたい
そうしたニーズに応えるために高級CDプレイヤーはあの手この手で高価格化したのだが
読み取り部分と処理部分を分離したセパレートタイプというのが存在する
CDを読み取る部分(トランスポート)で忠実に1bitの誤りもなく読み取り
その情報を高級ケーブルで処理側(プロセッサー)に送ってデジタル処理を施すのである
ちなみにこのトランスポートだけで10万円は平気でするしなんなら100万越えのものもゴロゴロしてる
さて、ではその辺の安物CDプレイヤーでは読み取り時にC2エラーが発生するだろうか?
そもそもC2エラーが発生するのは主にCD側の傷の問題であって読み取り側は関係無い
CDの裏面をガリガリに傷だらけにするとC2エラーが多発するが、多発しすぎてまず再生できない
またそのようなCDはどれだけ高級なトランスポートでも読み取れない
実際に適当なCDドライブを使ってCD-DAからリッピングした場合
何回リッピングしても1bitの誤りもなく同じデータが出力される
実際にはリッパー側が最初の部分をキッチリ特定するので1bitもズレない
この辺は個人的に興味があったのでスクリプトで100回ほどCDをリッピングしてビットマッチしてみたことがあるが
1bitの誤りもなく全く同じデジタルデータが出力された(まぁたまたまだったかもしれないが)
ちなみにC1エラーは多発するし、これはプレイヤーによって差があることは分かっている
とはいえC1エラーは誤り訂正でキッチリ戻せるので多発しても問題無い
ところがPureAudio界隈では
理想的な量子コンピュータが作れたとしても、既存のコンピュータでできることの全てが速くなるわけではない。
量子加速が効くアルゴリズムは非常に限られていて、加速されるアルゴリズムであっても指数的に加速するものはさらに少なく大半は多項式加速に過ぎない。
多項式程度の加速だとデコヒーレンスやノイズにかき消されて優位性が消滅しがち。
そして量子計算は原理的に出力が確率的(ヒストグラム)にしか得られないので、厳密な計算が必要となる状況では使えない。
(なお「理想的な量子コンピュータ」を作れる見通しは現状全くなく、原始的な量子誤り訂正をどうにかこうにか実装しようと苦労してる段階)
いや、実際は11桁なんだよ。最後の1桁はチェック用の数字。チェック・ディジットと呼ばれている。番号の誤入力があった場合はチェックデジットと番号が合わないのでエラーになる。これを誤り検出といいます。
と思ったかもしれないけど、これ、全然すごくないんだよね。チェック・ディジットが1桁だと、10%の確率で偶然OKになってしまうんだ。こういうことはごくまれにしか発生しないけど、日本国全人口が使用するのであれば、数件起こってもおかしくない。これが昨今マスゴミでやかましく報道されている誤入力の原因にもなっている。
2桁にすると1%の確率に。ただでさえ少ない誤入力のさらに1%なのだから、これはほぼほぼ確率ゼロ。でも本当に2桁でよいの?
チェック・ディジットの長さをもっともっと長くすると、誤りを検知するだけじゃなくて誤りを訂正できるようになる。これでほぼほぼトラブルがなくなる。みんな幸せになれるお。
ChatGPTによると、Aさんが量子のペアの片方を観測しても、Bさんの元にあるもう片方のペアは確定されず、あくまで確率的なことしか言えないらしい。
「だとすると量子通信は成り立たないのでは?」と聞いてみたところ、それは誤り訂正によってカバーできるとのこと。
じゃあ「量子通信は盗聴すると結果が変わるから盗聴を検知できる」というのはどうなるのか。盗聴されて変化してもそれを誤り訂正したら意味がないのでないかと問い詰めると、「そこは秘密鍵で改竄防止できる」という。
もう何が何だか分からない。では秘密鍵はどうやって共有するのか。その秘密鍵を安全に共有するための量子通信ではないのかと問うと、「量子通信は盗聴されても探知できる」と話が振り出しに戻る。
だから探知するにしても自然に発生する確率によるエラーと盗聴による量子の変化をどう区別するの?...と。
量子コンピュータ(に社会が期待していること)に比べたら遥かに実現可能性あると思うぞ。並列に並べるのはおかしい。
量子誤り訂正ができてそれなりにスケールしたとしても、物理的に近傍のqubitを守っているに過ぎないので遠いqubitとのゲート操作は実装できないかできたとしても精度がかなり落ちると思う。
近傍qubitとのゲート操作だけで実現可能な量子回路はそんなになく、それらは古典コンピュータに対する旨味も小さいだろう。
特定用途で素因数分解専用マシンとかだったらあり得るかもしれないけど、汎用で古典コンピュータを圧倒する量子コンピュータというのはまあ…できてもあと100年はかかるんじゃないかな…。