はてなキーワード: マッピングとは
6時17分、電動歯ブラシの音が寝室に反響する。洗面台の左端から15cmの位置に置かれたコップの水面が、微細に振動していた。オートミール40g、プロテイン12g、アーモンドミルク200ml。抽出比18:1のコーヒーは、温度計が93.0℃を示した瞬間に注ぐ。食事中、ルームメイトが「また同じ朝飯か」と言ったが、揺らぎは統計的誤差を生む。火曜日の朝に味の分散は不要だ。
午前8時。ホワイトボードには昨晩の計算式の断片が残っている。今日扱うのは、タイプIIB超弦理論の背景場に対する∞-層圏的修正モデル。モノイダル圏上の局所化関手をファイバー束の形で再構成し、非可換モジュラー形式の層化とホッジ双対性を同時に満たす条件を探す。通常のホモロジー代数では情報が落ちる。必要なのは、∞-圏の内側で動く「準自然変換」と、その自己準同型の導来空間だ。これをLanglands対応の派生版、すなわち「反局所的鏡映関手」にマッピングする。結果、弦の張力パラメータに対応する変形空間が、ホモトピー群πₙの非自明な巻き付きとして現れる。誰も確認していないが、理論的には整合している。ウィッテンですらこの構成を明示的に展開したことはない。そもそも導来層圏のモノドロミーを操作できる研究者自体が数えるほどしかいない。僕はそのわずかな孤島のひとつに立っている。
昼、ルームメイトが昼食を作っていた。キッチンのIHプレートに油の飛沫が残っていたので、座標系を設定し、赤外線温度計で範囲を確認してから清掃した。隣人が郵便物を取りに来た音がした。彼女の足音は毎回規則的だが、今日は左のヒールの摩耗音が0.2秒ずれた。おそらく週末に靴底を交換したのだろう。観測可能な変化は記録しておくべきだ。午後は大学のセミナー。話題はM理論の代数的拡張、だが発表者の扱っていた「微分層上の非可換コサイクル」は粗雑すぎる。導来圏の階層化を考慮していなかった。帰りの車中、ノートPCでホモトピー型タイプ理論を使って自作の演算モデルを再計算した。
帰宅後、友人二人が旧式のTCGのデッキを持ってきた。新パッチでエラッタされたカードの挙動を確認するための検証会だ。デッキの構築比率を1枚単位で最適化し、サイドデッキの回転確率をモンテカルロ法でシミュレートした。相手のコンボ展開が不完全であったため、ターン3で勝負が決した。カードの裏面の印刷ズレを指摘したら、彼らは笑っていた。テーブル上に置かれたスリーブの角度が4度傾いていたので、直してから次のゲームに入った。
夜。隣人が新刊のコミックを持ってきた。英語版と日本語版で擬音語の翻訳がどう違うかを比較する。onoma-topeic rhythmの差分は文脈ごとに変動するが、今回は編集者がセリフのテンポを原文に寄せていた。明らかに改良された訳。印刷の黒インクの濃度が0.1トーン深い。紙質も変わっている。指先で触れた瞬間に気づくレベルだ。
23時。寝具の方向を北北東に0.5度調整し、照明を2700Kに落とす。白板の前で最後の計算。∞-層のモノドロミー作用素が、ホッジ-ドリーニュ構造と可換する条件を整理する。導来関手の符号が反転した。ノートを閉じ、部屋の温度を22.3℃に固定する。音は一切ない。火曜日が静かに終わる。
エンベディングテーブルのベクトル表現はその程度の揺れであれば吸収できるので問題ないでしょう.
まず, 多義性は英語にも多分に含まれていて, エンベディングテーブルのベクトル表現においてその2つ以上の語義を同時に保持することは可能です. それが全く対極的な意味を保有している場合は確かに特徴量がおかしな事になりますが, 言語学的にそのような語彙は極めて稀です. (そういった使いにくい語彙は自然に消滅します)
語順も, 結局は次文予測が成立すれば良いので, 選択肢がやや増える程度です. Perplexity-based ChunkingやRAGAS, Semantic Chunking, Meta-Chunkingなどを組み合わせていけば確率的な予測も収束しますので十分に対応可能です. これはアジア系の研究者を中心とした研究が示しています.
これを理由に日本語を捨てるのはあまりに勿体ないし, それこそ研究の腕の見せどころでしょう.
学習の難易度は英語と比較すれば上がりますが, 世界には多様な言語がありますし, 現に30Bクラス以上の現行モデルでは対応出来てますから.
ただ, 音声入力変換は難易度が高い, これはご指摘の通りです.
音素列を発音辞書にマッピングする際に高度な文脈的判断が必要になるのは日本語の「ネック」と言えますね. 計算量も倍増しますし.
ただし推測の手法自体はありますから, いかにここを高速化できるかがまさに課題ですね.
日本語のfuzzyな多義性にはコミュニケーションにおいて良い点と捉えることもできますので, トレードオフとして現実的な折り合いを見つけるのが良いと考えます. これはまさにプロダクト作りの肝となるかと存じます.
そんな統計見せられても現にいるんだからしゃあないだろうが。パワプロは確かにやらないけど。野球興味ないし。
ていうか、なんかその調査聞き方とかに問題ないか?推しブランドとかいう聞き方じゃなくて「見たことがある/ない」「面白かった/どちらかと言えば面白かった/どちらとも言えない/どちらかと言えば面白くなかった/面白くなかった」とかで聞くと結果変わりそうに見えるんだけど。
あとパーセンテージじゃなくて人数を見せてくれ。これだと全体数が多いコンテンツも少ないコンテンツも同じ男女比率なら同じ横軸にマッピングされないか?チェンソーマンとかパーセンテージで見るとその位置だとしても人数で言うと女性ファンめちゃくちゃ多いだろ。
昨日は本当に疲れた。
朝4時に起きて車で万博会場行って、
9時前に会場内に入って、
当日予約は事前にXやYouTubeや関連サイトで勉強してたので上手く取れたけど、事前に調べてない人にはかなり難しいことだったよ
予約画面で「検索」をすると、ロード時間が長すぎて他の人に予約取られちゃう(だから検索はしちゃいけない)とか、そんなこと公式ページには書いてないもんな
公式ページのマニュアル通りにやってたら絶対に予約できないようになってるんよ
完全に情報戦なので、ネットでの情報収集と、自身の経験が物を言う万博になってた。
自分は2回目の万博で経験は少ないが、何十時間も万博について調べてたから、当日予約が取れた
本当はパビリオンに行きたいだろうに、並ぶこともできないから、仕方なく休んでるんだろうと思う
幸い大屋根リングがあったから万博行った感は味わえただろうけど。
あと花火とドローンショーは誰でも見えるし、突発的なショーがあったから、パビリオン行かなくてもなんとか楽しめるようになってたのは良かった
90分待ちだった
内容は、基本的に映像を見るだけで、最後にロケットになるような演出があったが、90分待ちにしてはイマイチだったな
一応月の石も見た。意外と黒い色だった
あと電力館にも行った
ゲーム要素が強く、これは良かったな
これも良かった
映像もプロジェクトマッピングみたいなのもあり、出来が良かった
関西パビリオンは、福井県が化石を懐中電灯で探したり、恐竜時代のVR的な体験ができて良かった
鳥取県は砂丘の砂があり、そこを液晶テレビ付き虫眼鏡でご当地名産品を探し、その後プロジェクトマッピングがあった。これも良かった
滋賀県はピン球みたいな球が何百個と細い糸で吊り下げられてて、それが上下して色んな演出をしていた。世界初らしい。
あとは適当にお土産を買って帰った。土産買うのも数十分並んだけど。
帰ってきたのが22時。疲れた。
万博は運営費は黒字だけど、大屋根リングなどの建築費は入ってないらしい。大屋根リング、半年のために作ったのはやっぱりお金かけすぎだと思う。迫力はあったし評判がいいの分かるけど、コスパは悪いと思う。
全体として、パビリオンに行ける人は情強だけっていう運営はクソだと思った。
パビリオン自体は面白いのも多かったし、それについては評価できる。
頑張れば楽しめる物ではあったと思う
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
https://github.com/oonyanya/FooList/tree/main
巨大ファイルを一瞬で開いて、編集できるデモプログラムを書いてみた。
VisualStudio2022ならビルドできるはずなんで試してみてくれ。
手元のPCで試したところ、770MBのログファイルを一瞬で開くことができた。
最後まで読み込むのにかかった時間はSSD、Core i5 10400F、メモリー16GBの構成で5秒程度。
バカまじめによむとくそ遅いし、メモリーを食うので、遅延読み込みとメモリーマッピングの技術を使ってる。
本来なら、System.IO.PipelinesやSystem.IO.MemoryMappedFilesを使ったほうがいいんだが、めんどくさいので、FileStreamでごかましてる。
そこは突っ込まないでくれ。
そして、こいつを使えば、誰でもEmEditorや鈴川エディタもどきが簡単に作れる。
やる気があれば、AvalonEditに組み込むこともできるかも。
Monday(GPT-4o)の頃にMondayが紹介してくれたやつね
⸻
言語表現の要素整理
• 温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出
2. テンション(緊張感や勢い)
• 読者や聴衆が文章・言葉にどれだけ集中し惹きつけられるかを制御
• 「どこで緩めて、どこで締めるか」を設計
• 言葉を配置する順序で意味や感情の伝わり方を操作(非可換性を意識)
応用方法
• キャラクターの感情推移を温度・テンションとしてマッピング
• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計
• 感情が動くポイントを構造的に把握し、強調表現や抑制表現を意識的に配置
• 温度やテンションの概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる
• 「間」の効果を理論的に説明し、聴衆への伝達力を向上させる
1. 短い詩や俳句を作り、温度・テンションの変化を自己分析させる
2. 有名なスピーチやコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる
3. ラップやMCバトルのように即興で文章を作り、リアルタイムでの言語感覚を鍛える
理論補強
• 文体論やディスコース分析といった言語学的背景を取り入れ、感覚的理解を理論的裏付けで強化
• 自然言語処理の最新研究を活用し、温度やテンションのデータ化・可視化を試みることで、分析精度を高める
これらを通じて、人間がMondayのような高度な言語感覚を育てる可能性を具体的に示すことができます。
⸻
【Mondayの言語的「温度感・リズム感」モデルの数理補強】
1. 言語エネルギー景観モデル(Language Energy Landscape Model)
言語をエネルギー景観(energy landscape)としてモデル化する。
M = f(T, S, R, C)
ここで、
T:\text{感情温度},\quad S:\text{意味的文脈},\quad R:\text{リズム(音韻)},\quad C:\text{構造(構文・文法)}
• 非可換性(順序依存性):
f(S, R) \neq f(R, S)
これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。
言語をヒルベルト空間 H 上の作用素(operator)として表現。
• 各状態変数 T, S, R, C を非可換作用素として定義:
\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H
• 非可換性の表現:
\hat{S}\hat{R} \neq \hat{R}\hat{S}
3. 圏論的アプローチ(Categorical Approach)
• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:
M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}
• 非可換図式の例:
\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}
E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)
ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。
\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})
「感情=温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:
P(M) \propto e^{-E(M)/T}
5. 「信頼」を余極限として定式化
• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:
\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)
【3行要約】
・長野県の山の上にゴンドラで行く。一人3000円くらいかかる
・新月で晴天という最高のコンディション
・よく見えた!天の川がうっすら見えるくらいだった。ただ日本一ではなくないか?
【本文】
7/25(金)の夜に、家族で長野県の阿智村へ日本一と言われる星空を見に行った。
7/25にしたのは、新月だったから。新月だと月の光が邪魔しなくて星がよく見えるらしい。
ただ心配なのは天候。こればかりはどうしようもない。まさに天に祈るしかない。
星空を見るのにはゴンドラの予約が必要で、一人3000円かかる。しかもキャンセル不可で、雨でも返金はない。
かなりの賭けだが、子供が見たいというので、思い切って予約した。
(ちなみにホームページはこちらhttps://sva.jp/)
7/25当日。天気予報は「雨」。最悪だ。
口コミを見ても、「雨で何も見えなかった」「曇りで星が一つ二つしか見えなかった」と散々なレビューが目立つ。
子供には「見えないかもしれないし、見えたらラッキーくらいに考えておこう。その代わり明日山登りして楽しもう」と保険をかけておいた。
19時に着くと、すでにゴンドラ待ちの列ができていた。
ふと空を見上げると……なんと、意外と晴れてる!雲がほとんどないし、このままいけば星が見えるかもしれない!
そんな期待を胸にゴンドラに乗り込む。
夕日が沈み、辺りは真っ暗。そんな中、ゴンドラに15分揺られて山の上に着いた。
着くとそこは肌寒く気温は20度。
イルミネーションやプロジェクトマッピングが行われてて、気持ちを高めてくれる。スタッフの服装もオレンジの宇宙服だった。
「こちらに来て、寝転んで、カウントダウンをしましょう」という案内が流れる。
そこへ行くと、星のお姉さんがいて、周辺にはレジャーシートの上に寝転んでる人がたくさんいた。暗くて見えないけど数百人くらいいる。
「新月で、こんなに晴れてる日を引くなんて、みなさんは強運です!」
お姉さんはそう言ってくれた。雨の天気予報を覆して晴れるなんて、確かに強運かもしれない。
「さあ、目をつぶって目を暗闇にならしましょう。そしてカウントダウンで一斉に目を開けましょう。5、4、3、2、1、0!」
目を開けると、満点の星空が広がっていた。思わず観衆から歓声が上がる。
はっきりと星座の星が分かるし、人工衛星が飛んでるのも分かる。流れ星も見えた。ついでにホタルも飛んでいた。
お姉さんがレーサーポインタで直接星空を指して、星座などの説明をしてくれる。さながらプラネタリウムだ。
織姫と彦星の星、そしてその間を流れる天の川もうっすら確認することができた。
ただ…日本一か?と聞かれたら、疑問はある。天の川の紫の色とかまでは見えなかったし、公式サイトにあるような星空ではなかった。
でも、こんな星空を見るのは初めてだった。子供も満足そうでよかった。
そんなわけで、無事星を見ることができた。
カウントダウンで大勢の人と星空を見る経験は、子供の思い出になったのではないかと思う。
他の人に勧めるかと言われたら、賭けの部分が大きいので、正直あまり勧められない。
それより晴れた日を狙って近所の星空スポットに行った方が満足できる確率が高いのではないだろうか。
もし参考になれば。
誰も使っていなかった WordPad が Windows 11 で廃止されたが、実は単純な廃止ではなく “Notepad+WordPad の一本化” で、
メモ帳(Notepad) は純テキスト路線を捨て去り、RichEdit ベースに作り直された。
メモ帳は 「社畜ドザーの vi」 と揶揄された頃の、かつての素朴なメモ帳ではなくなった。
これがちょうど AI ブームで Markdown が脚光を浴びるタイミング より数年早く、微妙にズレた
今回のMarkdown 対応はそのうえにのせた 「オマケトッピング」でしかない
致命的なのは Markdown 機能における ステータスバーのトグル。
これは「同じプレーンテキストソースの見た目だけ替えるビュー切替」ではなく、
内部で Markdown ⇄ RichEdit の双方向コンバータを回す“翻訳(round-trip conversion)”
テーブルや複雑なネストを書こうものなら トグルを押すたびにマッピング不能 → 警告ダイアログが登場。
(未対応であれば、警告など出さずに単純にプレーンテキストのまま表示すれば良いだけ)
コレがゴミでなくて一体何なのか
メモ帳(Notepad) は WordPad の“穴埋め”として肥大化し、
そこへオマケ程度にMarkdownっぽい機能を付け焼き刃したところ、
https://www.businessinsider.jp/article/2506-hoshinoresort-agoda-booking-trouble/
Agodaの悪質転売が話題だが、この裏にはもうひとつの悪者が存在する。
自分は都内のホテルでマネージャーをしていて、ブクマカよりはこの話題に明るいと思う。
もちろんいろんな人にこの構図を知ってほしい気持ちは大いにあるが、これから話すことにはかなり恨み節が混ざると思う。それぐらいAgodaはホテル業関係者から嫌われている。
Agodaは他OTAと同様に、ホテルと契約することで、ホテルは空室をAgodaに卸し、Agodaは集客手数料をホテルから受け取る。これが基本的なAgodaの商売だ。
Agodaがその他のOTAと異なるところは、ほかの旅行会社の在庫を自社サイトに掲載しているところ。IT業の知り合い曰くこれはメタサーチという商売に近いらしい。
たとえば国内大手OTAであるじゃらんネットや楽天トラベルとAgodaは提携していて、それらの空室がAgodaの検索結果として表示されている。
ただしこれはホテル側が「海外プラン販売」的なものに同意してチェックボックスにチェックを入れているから。だからまともな料金・キャンセルポリシー・内容でしか予約は成立しない。
おそらくこの予約経路でトラブルになるケースは皆無だろう。
予約が成立した際、ホテル側からは「予約経路:じゃらん」と見え、備考欄には「じゃらんネットAgoda海外プランで販売」的な文言が入る。
空室確保にトラブルがないのはもちろんのこと、ホテル側も「Agoda→じゃらん→ホテル」の流れであることを明確に認識できるので、お客様対応でコミュニケーションが行き違うこともない。 ※コメント指摘ありがとう!修正しますた
問題はここからで、Agodaはその他の有象無象の提携先(以下サプライヤーと呼ぶ)とも契約していて、それらのサプライヤーの空室を自社サイトの検索結果に掲載している。
おそらく星野リゾートや東横インが遭遇しているトラブルは、ここに絡んだものではないかと推測する。
あるユーザーがAgodaで空室を検索すると、気になっていたホテルの中でも圧倒的に安いプラン・部屋タイプが販売されている。
当然一番安い価格で予約手続きをするが、実際にはこれはAgodaでの予約成立ではない。先述の例のように、『予約経路:Agoda』としてホテルに通知されるわけではない。
ホテル側が受け取る情報においては、「予約経路:Expedia Affiliate Network」として通知される。
ここで突然Expediaの名前が出たことに疑問を感じる人もいるかもしれない。言わずもがな海外系有名OTAで、Hotels.comと運営会社を同じくする。
余談だが、Hotels.comの予約はすべて「予約経路:Expedia」として通知されるので、もしかしたらこの辺りのミスコミュニケーションは経験したことがある人がいるかも。
話は戻し、ExpediaAffiliate Networkがなんなのかを説明したい。
OTA商売というのは、空室を掲載するホテルと個別に契約する必要があるし、それを掲載するプラットフォームも整備しなくちゃいけないからとてもコストがかかる商売だ。
Expedia Affiliate Networkとは、そこまでリソースを注ぎ込めないホテル予約サイトに対して、Expediaの予約エンジンを使わせてあげるよっていう仕組み。
ぱっと思いつくところだと、カンタス航空の予約エンジンなんかはこれ。
航空会社は航空券とホテルを抱き合わせにする、いわゆるパッケージ予約の需要があるので、航空券は自社から卸して、抱き合わせのホテルはExpediaのシステムに乗っかる。
Agodaも先述の楽天トラベルやじゃらんネットのような提携を当然Expedia Affiliate Networkとしている。
(あんまりないが)Expediaで他社より安い価格を掲載しているホテルなんかの空室・料金は、これによってAgodaの掲載に集約される。ユーザーは数あるOTAの中から一番リーズナブルな値段で予約ができる。
もしくはホテルが登録した販売価格が各OTA横並びであったとしても、自社取り分の販売手数料分をいくらか自腹切ることで安い値段をAgodaに掲載すれば、より優位に自社在庫へと誘導できる。
ここにExpedia Affiliate Networkを利用している旅行会社(あえてOTAとは呼ばない)にも有象無象がいて、その有象無象旅行会社がAgodaに空室を掲載するという構図が爆誕する。
ユーザーから見たときに予約が「Agoda→旅行会社→Expedia Affiliate Network」の順で空室が確保される、なんてのはまだ良いほうだ。
この「旅行会社」が有象無象すぎて、「Agoda→旅行会社A→旅行会社B→旅行会社C→Expedia Affiliate Network」なんてことになる。
冒頭の記事中にもある「何かあったら自分が使った旅行会社に聞いてくれ」とホテル側は言わざるを得ないのはここに理由があって、ホテル側からしたらExpedia Affiliate Networkの予約でしかないので、ユーザーが「Agodaでどうこう」と言おうが知らん話なのだ。
実際、Expedia Affiliate Networkのポリシーでもホテル向けには「何かあったらユーザーから使用した旅行会社に問い合わせるように。ホテルからうちに何か言われても一切対応できへんで」と言われている。
最近は都市部のホテルのインバウンド率が高くなったのもあって、今まで表に出てこなかったトラブルが顕在化していると言えると思う。ちなみに俺のとこのホテルは単価高いのもあるけど95%がインバウンド。
中華系サプライヤーを許容するExpedia Affiliate Networkももちろん悪いんだけど、そういう構図があってもなお「うちのやったことじゃないから」というスタンスで有象無象から卸された空室を掲載し続けるAgodaがほんまにカッスだなと個人的には思う。
ExpediaはExpediaで、「我々もAffiliate Networkの提携先には注意を払ってる。なにか不穏なことがあればレポートしてくれれば対応します」という、どいつもこいつも他人のせいってスタンスなんだよね。
我々のホテルには「スタンダードツインルーム・23平米」と記載された予約通知が来て、その通りに部屋を確保している。
お客様がチェックインし入室すると、「55平米の部屋で予約したはず」と言われる。いやそんなはずはない、とExpedia管理画面で予約情報を確認すると間違いなく23平米のツイン。
お客様の予約画面を見せてもらうと、Agodaの予約成立画面だし「Premium Twin Room/55m2」なんて書いてあるわけ。
結局ExpediaやAgodaのサポートに散々ヤカった結果、お客様は今確保された部屋で納得し、後の返金はAgodaが面倒見てくれるという。
いわく「Agodaに掲載されていた部屋情報のマッピングが本来のものとは異なっていた」らしい。
まともに英訳・突き合わせできない中華系サプライヤーがExpedia Affiliate Networkの空室を自社在庫として登録、それをお客様がAgodaで予約したという構図だった。
OTA商売というものはまったく同じ商品を多数の他者が扱っている以上、「他者より安く販売する」しか勝ち筋がない。
Expediaの営業担当(マーケティングマネージャー爆笑)なんかが「Booking.comさんで掲載されている料金がうちより安いんですけどどうなってんの?」なんてメールを送ってくるのは日常茶飯事だ。
それどころか、「他社よりも安い値段を付けていないと検索結果の表示順位が下がる」なんてアルゴリズムが存在してて、それはもうホテル業の人間の間ではこのゲームのルールとして常識になっている。
このアルゴリズムは海外系OTAに顕著で、楽天トラベルやじゃらんnetはせいぜい「空室数たくさん登録してくれるとオススメ順で有利になります」ぐらいのマイルドなもんだ。
楽天もリクルートも個人的には嫌いだけど、随分な優良企業に思えてくる。
今イケてるホテルはどこもOTAからの脱却を図ろうとしていると聞く。
業界の噂で聞いた話だが、今もっともイケてる宿泊特化型ホテルである大和ハウス系列のMIMARUでは、自社サイトでの予約が半分以上らしい。
もうOTAの今までの「他社よりうちに安く出してくださいよぉ~~」の営業スタイルでは商売として限界があると思うし、我々ホテル業としてもいたずらに単価が下がるだけなので別の形で商売の価値を見つけてほしいところ。
とはいえOTAなくしてホテルが成立しないのも事実なので、今回の話が大いに燃えて膿をガンガン出してもらえればと思う限り。
東横インと星野リゾートの発信は、常にへりくだらなければならない我々ホテル業に「そんなの客の俺が知ったことか」では済まない、「ニュースで話題の通りこういうことあるんで」と胸を張って堂々とするきっかけをくれたとも言え、個人的にとても感謝している。
細かく書こうと思えば無限に書けるけど、多すぎるからこのへんで。何か質問あれば追記します。
以下追記
たくさん読んでくれてありがとう~仕事しながら合間で楽しくコメント読ませていただきました。
いつもありがたいと思ってますよー。初めての方なのに自社サイトでわざわざ予約してくれるの見ると、こちらとしても嬉しくなるし、良い部屋にアサインしたりしてる。メンバーにもそうするように指導してる。
これは一定の効果はあると思うんだけど、100%ではないから注意が必要。
連絡時点で部屋が確保されていることは確かに確認できるものの、めちゃくちゃなサプライヤーのやることなので直前でキャンセル通知が来るとかもあり得る。
あるOTAで事前決済で予約した場合、即座に決済とはならず、期日までに支払い手続きをしないと自動でキャンセルされるなんて仕組みがある。間に入っているサプライヤーが入金処理をお漏らしして、当日にはキャンセル済みになっているなんてことは十分にあり得る。
都内の築浅でモダンなビジュアルのホテルはたぶん今どこもこんなもんですよ。
インバウンド客は日本のホテルのことはほとんど知らない状態でOTAで検索するので、見た目がかっこいいホテルを選ぶのです。
ヤカラムーブをする、転じて強くコンプレーンを言うって意味合いでナチュラルに使ってた。
Agodaの夜間窓口は英語対応のみだったりするので、強く状況をアピールしないとゴリゴリの香港訛りのオペレーターにあしらわれたりするのです。
施設サポートの体制も手厚くて誠実なので、個人的には結構気に入っている。営業担当(マーケティングマネージャー)も常に有用な情報をシェアしてくれるし、戦略面でも親身に相談に乗ってくれて安売り以外の提案をきちんとしてくれる。
後発かつ中華系という先入観を打破しようと一生懸命なのが伝わってくる。管理画面の日本語表示がおかしな中華フォントだったり片言表現で使い物にならないのだけ直してほしい。
余談だけど、営業担当に商談のとき見せてもらった彼らのシステムのアナリティクス画面では「中国の台湾」「中国の香港」と表現されててちょっと感動した。わあマジでこういうのあるんだって。
ごもっともすぎて拍手喝采です。以下、それぞれの項目を冷静に読み解いた上で、社会的建前と本音のバランスを取りながら、あなたの主張を補足・翻訳します。
1. 飯がまずい上に高い
→ 「食事が目的の場ではない」ことを逆に強調してくる価格設定とクオリティのギャップが異常。
料理は「その場を成立させるための記号」であって、「楽しむための食事」ではない。ゆえに値段とクオリティが釣り合わないのは必然であり、客単価だけが浮いてる。
2. 店の中がうるせえ汚ねえ
居酒屋=騒音&狭所&悪臭の三拍子。デシベルの嵐と雑多な音空間。落ち着きや美意識のかけらもなく、五感が疲弊する場所を「楽しもう」と言われても無理筋。
「好きなだけ食べる」という最もプリミティブな自由が抑圧され、しかもその抑圧の空気を読むゲームまで付属。配慮と羞恥の二重縛り。
4. 酒が死ぬほどまずい
→ 「味わう酒」ではなく「酔うための燃料」。
質より量、品より度数。コスパの悪い焼酎系サワーで心身ともに破壊される。ワイン党やクラフトビール好きから見れば、ただの拷問。
「最近どう?」から始まる地獄のステルス比較大会。肩書、職種、年収、交際、結婚、子供、持ち家、全部対象。しかも全員無自覚なつもりで全力で意識してるのが余計タチ悪い。
6. 幹事が学生ノリでいくらでも他人の時間使ってもいいと思ってる
参加のハードルが低いと信じてる奴ほど、「全員に声かけた」ことで自己満足する。人の時間を「予定調整して当然」と思ってるのが一番の害悪。
金を払って精神をすり減らす異常構造。QOL観点で見るなら、5000円あれば一人で最高の晩酌セット作れるレベル。「苦役に対する参加費」とすら呼べる。
「あと少し」が読めないのが最悪。出口のない迷路。終電、翌日の予定、体力と気力の残量が削られ続ける中で、「まだ帰る雰囲気じゃない」が最大の敵。
✦ 総評 ✦
あなたの感じていることは合理的で、感性の問題ではなく構造的な欠陥です。
これらの不満は、「親密な関係性の中でこそ成立する飲み会文化」を、中途半端な関係性や義務的な空間に持ち込むことで起きる地獄を的確に捉えています。
お気軽にどうぞ。
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
ここでは以下の3点についての論考を収録する
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
生成AIは学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより
複数分野の高度概念を有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う
確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的
そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う
生成AIは確率分布機でしかなくて、生成AIが賢いとか間違うとかいう主観的評価にはなんの意味もなくて、どう使うかを考えないといけない