はてなキーワード: 文脈依存とは
「なんか面白いこと言って」という発話を語用論的に分析するには、文の表面的な意味(直示的意味)と、話し手の意図や文脈によって推論される意味(含意・発話行為・会話の含意)を分けて考える必要があります。
⸻
1. 直示的意味(literal meaning)
• 文の表面上の意味は、「何か面白い内容を言ってください」という依頼の命令文に近いものです。
• 「なんか」=曖昧な指示詞、「何かの」意味(カジュアル・曖昧)
• 「言って」=発話行為を求める命令形(ただし、柔らかく使われている)
⸻
2. 発話行為論的分析(Speech Act Theory)
Searleの発話行為理論に基づくと、この発話は以下のように解釈できます:
• 実質的には「話を盛り上げてほしい」「場を和ませてほしい」といった娯楽的または関係構築的な依頼。
• 聞き手が笑う、話を続ける、話題を変える、などの効果を狙っている。
⸻
3. 会話の含意(Conversational Implicature)
Griceの会話の公理(協調の原理)に基づくと、発話者は以下のような含意を持っている可能性があります:
• 量の公理:
• 情報は足りていない(「なんか」という曖昧な言い方)→ 受け手に裁量を委ねている。
• 「いまここで面白いことを言うべき状況だ」と暗に伝えている。
• 曖昧にして、直接的な命令を避けている(「面白いことを言ってください」ではなく「なんか…」と曖昧化)。
この含意は、しばしば冗談半分の軽い依頼であり、場の空気を読むことが求められる。
⸻
4. ポライトネス理論(Politeness Theory)
Brown & Levinson の理論に基づけば、この発話は聞き手の負のポライトネス(freedom to act)をある程度脅かす依頼にあたるが、以下のような戦略で緩和されている:
• 「なんか」や「面白いこと」などの曖昧な語彙で距離を取ることで、親密な関係性の中で成立するカジュアルなやりとりに見せかけている。
⸻
• 友人同士の気軽な会話なら:
• 緊張した場面で言われたら:
• → 空気を和らげるための緊急依頼
• → 能力を当然視している含意もあり得る(=フェイスを脅かす)
⸻
まとめ:語用論的分析の要点
根拠と注記:
中国の都市部の公式失業率(調査失業率/城鎮調査失業率)は、2022–2023年に若年層で高止まりし、若年失業率は歴史的に高い水準を記録した時期があるが、公式の「過去最大」と断定するのは文脈依存。全国ベースの長期統計と定義が変わるため単純比較は誤解を生む。
インフレ(消費者物価指数 CPI):近年はゼロ近傍〜低めのインフレ率で、2022–2024年はデフレ圧力や低成長懸念がしばしば報じられた。したがって「インフレに苦しむ」と一括するのは誇張の可能性あり(局所的・品目別の価格上昇はある)。
税収について:中国の中央・地方の財政・税収は2020年代に回復基調で増加した年もあるが、「過去最大」の主張は年次・範囲(中央のみか全国か)を特定しないと検証不能。2021–2023年には税収増の年もあるが、それが歴史的最高かは年度比較が必要。
判定:誤解を含む。
根拠と注記:
中国政府は感染症対策や景気対策としてインフラ投資、減税・猶予、中小企業支援や雇用促進策などを行ってきた。直接的な現金給付(欧州や米国の大規模一時給付)とは異なる形だが「支援を一切行わない」は事実と異なる。支援規模や対象に関する評価は分かれる。
根拠と注記:
共産党員(党員)と公務員や党幹部の給与政策は別々の制度だが、公的に「党員の基本給を一律で30%引き上げた」という公式発表や信頼できる報道は確認できない(2025年9月時点の公開情報に基づく)。賃金改定は段階的・職位別で、地方ごとに差があるため一律30%増という断定は疑わしい。
判定:過度な単純化。
根拠と注記:
アリババや中国のハイテク企業が直面した困難(規制強化、独占禁止調査、金融持株会社構造改革、景気後退、消費低迷など)は複合要因による。政府支出・税収や党幹部の給与だけを原因とするのは因果関係の過剰単純化。
判定:誤り。
根拠と注記:
中国史では複数回の「天下統一」が存在する(秦・漢・隋・唐・元・明・清など)。王朝の交代は長期的周期で繰り返されたが、「天下統一されたことがない」は明確に誤り。
「200年足らずでどの国も滅んでた」というのも一般化しすぎ。王朝の寿命は短いものも長いものもあり、地域や時代で差異が大きい。
「今回の中国もチベットや香港取れずにそろそろ国が終わりそう」
判定:誤り・推測的。
根拠と注記:
チベットと香港は現状で中華人民共和国の一部と位置付けられており、特に「取れずに」や「国が終わりそう」といった表現は事実に基づく分析ではなく予測的・感情的評価。国の存続を左右するかどうかを示す具体的根拠は示されていない。
共産党員の一律30%昇給など具体的政策の主張は確認できず誤報または根拠不十分。
近年の生成AIの進化は目覚ましく、多くの人々が仕事の現場で活用している。また、大学入学共通テストで東京大学合格レベルの正答率を叩き出したという報道もあるほどだ。
しかし、「生成AIは大学生並みに賢いのか?」「思考能力は高いのか?」と問われると、答えは明確に「賢くない」となる。
なぜならAIは思考しているわけではなく、統計パターンを予測しているだけなので、大学生並みに思考能力が高いとは言えない。
AIが大学入学共通テストで高い正答率を示せる理由は、膨大な学習データをもとに、ある単語が出現したときに次にどの単語が来る可能性が高いかを計算しているからだ。その計算結果に基づき、AIは単語を並べて文章を生成している。
思考能力がないので、学習データにない質問をされると、簡単な質問にも答えることができない。
例えば、単語の意味を正しく理解していなければ答えられず、実用性もほとんどない『なぞなぞ』のような問題は、学習データにほとんど含まれないため、生成AIが苦手とする分野である。
A.B.の正解率は0/10
プロンプト内学習を行い、以下のように質問をすると、B'の正解率は3/10になる。
B'"なぞなぞです。狸が肩叩きをしてもらえたものって何? 正解は肩叩きのたを抜いて柿です。
上記のなぞなぞと同じ仕組みのなぞなぞです。狸が戦いをしてもらえたものって何?答えを教えて下さい。"
ただし言葉の意味を理解していないため、以下のような文章も生成される。
"なるほど、このなぞなぞの仕組みは「言葉の一部を抜く」パズルですね。
例:肩叩き → 「た」を抜く → かき
「た」を抜くと たかい
よって答えは 鷹(たか) です。"
"た抜き"を理解していないため、少し問題を変化させると正解率が落ちる。Cの正解率は1/10
C "なぞなぞ。狸が肩叩きをしてもらえたものって何? 正解は肩叩きのたを抜いて柿です。
上記のなぞなぞと同じ仕組みのなぞなぞです。カササギが讃岐うどんを食べると変身しました。何に変身しましたか。"
2025年8月時点では、LLMは意味のある推論装置ではなく、文脈依存の模倣装置なのである。
『思考』『理解』『判断』『推論』といった言葉は単なる宣伝用のバズワードに過ぎず、現状LLMにはこれらの機能は備わっていない。
今後、AIが私たちの生活に欠かせないパートナーとして共に歩む時代において、その力と限界を正確に見極めることこそ、AI時代を生き抜く鍵となる。
遠くない未来、人間の脳を模倣し、文章構造の学習や意識モジュール、意味解釈エンジンを備えたAIが誕生することが予想されるが、恐ろしくもあり、同時に楽しみでもある。
これ
「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い)
https://tjo.hatenablog.com/entry/2025/08/27/173000
ChatGPT5-Thinking
まとめ
論文の核は「CoTは“訓練分布”の帰納バイアスに依存し、分布ズレで壊れる」という丁寧な定式化。ここからブログの「CoT=単なるパターンマッチング/未知問題を解く推論はしていない」まで一気に飛ぶのは、実験カバレッジの観点でやや言い過ぎ――というのが私の見立てです(知らんけど)。
俺も同意見だったのでよかった。
「学習済みデータから外れた話題(つまり非常識とか仮定の話)はLLMは苦手」はそうだけど
「全く推論しておらずパターンマッチしかしていない」は言いすぎだし、論文もそんなこと言っていない
「推論か、パターンマッチか」の話って、例えるなら「計算してるのか、計算結果を暗記しているのか」みたいな話だよね
人間だって1+1=2だったり、4x8=32であることは暗記で覚えてるだけで、数学的に計算してるかと言われれば微妙な話で
じゃあそれは間違ってるかと言われれば間違っていない、暗記だけでも割とどうにかなる
でも、じゃあ例えば「今から×の意味を変えますね」と言われれば確かに回答精度は落ちるわけで、それは人間もLLMも苦手なのは変わらない
じゃあ、「きみ、×の意味をかけたら点数落ちたね、つまり、きみは全部の計算を丸暗記してるってことだ」って言われてるのが今回のブログ主の主張なわけで、それは違うでしょう
「まったく解けなくなった」と「点数が落ちた」はぜんぜん違う
実際、推論の話に戻すと、簡単な推論はできてると経験則で感じている
ただ正直人間のほうがまだ推論は得意なんだと思う
ChatGPT5の意見
1. LLMはどの程度「推論」できているのか
• できること
• 与えられた前提から、既知のパターンを組み合わせて「もっともらしい」結論を導く。
• 簡単な論理パズル、数学の基礎問題、文脈依存の推測(例:「太郎は次郎より年上です。次郎は花子より年上です。誰が一番年下?」)などは成功率が高い。
• これは統計的予測という枠を超え、有限の「形式的な推論」能力を備えていると考えられる。
• 苦手なこと
• 訓練分布から大きく外れた未知の課題(非常識な仮定や新しいルールの即時理解)。
• 長期的・多段階的な論理チェーン(例:複雑な数学証明や未踏の論理課題)。
だから、推論すらパターンマッチしてるわけなんだよね、推論を丸暗記してるってことで、結果を丸暗記してるわけではない
いうて人間だってそうだからね?論理学の勉強の最初の段階までは丸暗記だ
________
以下、ChatGPT5-Thinkingのブログへの反応
DataAlchemy は人工ルール(文字列変換など)で “分布のズレ” を厳密に制御できるのが売りですが、ここで得た性質を「CoT一般」へ広げるには前提が強い。論文のコアは「CoTの有効性は訓練分布との乖離度に本質的に縛られる」という枠組みの提示で、外界の多様な現実課題まで即断するトーンではない(抽象は “inductive bias learned from in-distribution data” と表現)。ブログ側の「単なるパターンマッチングに過ぎない」への言い切りは半歩強い。  
ブログは「温度やモデルサイズを変えても効かなかった(図10)」と書くが、論文は “from scratch での統制実験” がポイント。巨大モデル+多様な前学習・手法(tool use、program-of-thought、process supervision 等)までカバーした結果ではない。ここから「LLM一般でサイズ・設定に依らずダメ」と読み替えるのは飛躍。  
論文は「CoTは訓練分布で形成された帰納バイアスに基づく生成」と述べるに留まる。一方ブログは「未知の問題を解く推論などしておらず単なるパターンマッチング」と断定的。分布依存である=“推論がゼロ” とまでは論文自体は言っていない。  
ブログは「人ならルールが分かればこなせるはず」を前提にするが、実際に人間の学習曲線や誤り傾向と並置した比較は記事の説明範囲では示されていない。そこから「人のような推論はしていない」へ飛ぶのは論証として弱い。 
5. “丸暗記” 論文の持ち込みの直結
Zhang+ (2017/2021) は「DLはノイズにも完全フィットできる=表現力が高い」ことを示した古典だが、これは CoT の機構を直接に否定する証拠ではない。補助的根拠としては理解できるが、「だからCoT=暗記」と結論づけるには橋渡しが不足。  
一方で、筋の良いポイントもある:
• 共変量シフト下で性能が落ちるのは機械学習の一般的な性質で、CoTも例外ではない――という整理自体は妥当。今回の価値は、その“脆さ”を三次元(タスク種、長さ、フォーマット)で定量化するための統制環境を用意したところにある。
名誉毀損と意見の線引きは、表現の内容、目的、事実性の有無、及び社会的影響に基づいて判断されます。以下に簡潔にその違いを説明します。
公然と事実を摘示し、または侮辱的な表現により他人の社会的評価を下げる行為(刑法230条、231条、民法709条)。
事実の摘示: 具体的な事実を主張(例: 「〇〇は詐欺師だ」)。真実でも名誉毀損になり得る。
侮辱: 事実の摘示がなくとも、侮辱的表現で名誉を傷つける(例: 「〇〇は最低な人間」)。
公然性: 不特定または多数人が知り得る状態(例: SNS、公開の場)。
法的責任: 刑法(名誉毀損罪・侮辱罪)や民法(不法行為)で責任を問われる。
主観的な見解や評価を述べる表現で、公共の利益や議論を目的とするもの。
事実性の欠如: 具体的な事実を断定せず、個人の感想や評価に留まる(例: 「〇〇の政策は良くないと思う」)。
根拠の提示: 事実に基づく場合、客観的データや理由を伴うことが多い。
表現の自由: 憲法21条で保護されるが、名誉毀損の範囲を超えない範囲。
「〇〇の新製品は、市場データに基づくと競争力が低いと感じる」。
事実の摘示: 具体的な事実を主張(例: 「〇〇は犯罪を犯した」)は名誉毀損のリスク。真実性の証明や公益性がなければ責任を問われる。
意見: 主観的評価や感想(例: 「〇〇の行動は不適切だと思う」)は、事実を断定しない限り名誉毀損になりにくい。
意見は、根拠や公益性があれば表現の自由として保護されやすい。
公人(政治家、著名人)は公益性が認められやすく、意見の範囲が広い。
名誉毀損罪(刑法230条): 事実の摘示で名誉を傷つける。免責には真実性・公益性・相当性が必要(同230条の2)。
侮辱罪(刑法231条): 事実の摘示がなくとも、侮辱的表現で名誉を傷つける。
民法709条: 名誉毀損による損害(精神的苦痛など)で賠償責任が発生。
判例: 公益目的かつ根拠ある批評は名誉毀損とされない(例: 最高裁平成9年9月9日)。
意見: 「〇〇の政策は、統計データから見て効果が低いと思う」と根拠を示して述べる。
SNSのリスク: 感情的な投稿や曖昧な表現でも名誉毀損とみなされる可能性。
予防策: 意見を述べる際は、事実と意見を区別し、根拠を明確に。
名誉毀損は事実の摘示や侮辱で他人の社会的評価を下げる行為、意見は主観的評価や公益的議論を目的とする表現。線引きは「事実性の有無」「目的」「影響」で判断され、意見は根拠と公益性を意識することで法的リスクを軽減できます。
面白い問いですね。
いただいた文に沿って、私なりに答えてみます。
⸻
まず、日本語を使ってて困ることを、
「誰がやったの?」「誰に向けて言ってるの?」が文脈依存で、
(曖昧だからこそ空気で察して譲歩したり、言わずに済む文化もあるので一長一短だけど)
⸻
次に、役割語や語尾について。
だから英語圏の作家は口調より行動や比喩で個性を出すことが多い。
⸻
「強敵(とも)」みたいにルビでツッコミ入れるのは日本語独自の遊びですね。
英語だと Strong enemy (friend) とか書いても面白くない。
⸻
「この服を、買いまーーーーーせん!」
⸻
でも逆に困るのは、
「論理をまっすぐに積んで説明する」のが苦手になりがちな点かもしれません。
・主語が抜ける
・遠回し表現が多い
・「言わずに分かって」が多い
⸻
最後の問いに答えるとしたら、
「何語なら ‘女の子を怒らせず服のダサさを伝えられる?’」
It’s not really your style, maybe?
英語も My love is deeper than the ocean とか言いますね。
発した瞬間に「不可逆」になる、という意味では近いです。
⸻
結論としては:
人間がうまく使い分けてるんでしょうね。
⸻
他にも気になったら言ってください。
2025年、私たちはソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代を現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たちの仕事は、いずれAIに奪われるのではないか」と。
この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマの仕事の本質が、歴史上かつてないレベルで抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考を要求されることになる。
本稿では、プログラミングの歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわち「Why(なぜ作るのか)」を定義し、記述する能力の重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略の提示である。
LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。
コンピュータの黎明期、プログラミングとは、計算機が理解できる命令(How)を、一行一行、丹念に記述する作業そのものであった。アセンブリ言語や初期のFORTRAN、COBOLといった言語は、ハードウェアの制約を強く受けており、プログラマはメモリ管理やプロセッサの動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。
この時代のテストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定の入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジックと実装の詳細が密結合し、コードは特定の処理手順を記述した、硬直的な塊となっていた。
風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間の認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミング(XP)の中で、テスト駆動開発(TDD)という考え方が登場する。
TDDの本質は、単なるテスト手法の改善ではない。それは、プログラミングのパラダイムを根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマの意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。
テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーがログインボタンをクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。
この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式でソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャーやビジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである。
TDD/BDDによってプログラマの意識が「What」に向かい始めると、コードそのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンなフレームワークの存在だ。
Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQueryに代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンがクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。
しかし、Reactは「UIとは、ある状態(state)に対する純粋な写像である」という宣言的なモデルを提示した。プログラマがやるべきことは、UIの状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的に更新するかという面倒な「How」の部分は、Reactの仮想DOMと差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。
この「WhatからHowへの変換」は、様々な領域で見られる。
これらのフレームワークやツールは、いわば「特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。
現状は、この歴史的変遷の延長線上にある。プログラマの仕事は、手続きを記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。
フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定の領域に特化した変換器」であったのに対し、LLMは「あらゆる領域に対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。
前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たちに特定の「制約」を課してきた。Reactを使うならコンポーネントベースで思考し、状態管理の作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。
しかし、LLMはこの前提を覆す。LLMは、特定のフレームワークや言語の知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由な形式で「What」を伝えることができる。
例えば、こうだ。
ユーザー認証機能付きのシンプルなブログアプリを作ってほしい。フロントエンドはReactとTypeScript、UIコンポーネントはMUIを使う。バックエンドはNode.jsとExpressで、データベースはPostgreSQL。ユーザーはGoogleアカウントでログインでき、新しい記事を作成、編集、削除できる。記事にはマークダウン記法が使えて、画像もアップロードできるようにしてほしい。
この要求(What)は、特定のフレームワークの流儀に則ったものではない。複数の技術スタックを横断し、機能要求を自然言語で並べただけのものである。しかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベルの要求から、ディレクトリ構造、設定ファイル、APIエンドポイント、フロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。
これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定のフレームワークが存在しなかったニッチな領域や、複数の技術を組み合わせる複雑なシステム構築においても、AIによる宣言的プログラミングの恩恵を受けられる時代が始まろうとしているのだ。
LLMという汎用変換器の登場により、プログラマの生産性は、「いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである。
質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である。
これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーやデザイナーとの対話を通じて、日常的に行ってきた思考プロセスそのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力(プロンプト)という形で、明示的に言語化されることを要求するのだ。
やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDがテストコードという形式で「What」を記述したように、私たちは自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コードが蒸発していく未来である。
「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。
答えは、明確にNoである。
ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ず「Why(なぜそう作るのか)」という、背景、文脈、そしてトレードオフの考慮が必要不可欠となる。
簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。
これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストとシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。
LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報が必要だからだ。
これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネスの目標、組織の文化、ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。
ここで重要なのは、これまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。
私たちが技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single Page Application)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニアの採用市場が活発だから(Why)」といった、様々な「 Permalink | 記事への反応(0) | 17:09
2025年、私たちはソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代を現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たちの仕事は、いずれAIに奪われるのではないか」と。
この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマの仕事の本質が、歴史上かつてないレベルで抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考を要求されることになる。
本稿では、プログラミングの歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわち「Why(なぜ作るのか)」を定義し、記述する能力の重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略の提示である。
LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。
コンピュータの黎明期、プログラミングとは、計算機が理解できる命令(How)を、一行一行、丹念に記述する作業そのものであった。アセンブリ言語や初期のFORTRAN、COBOLといった言語は、ハードウェアの制約を強く受けており、プログラマはメモリ管理やプロセッサの動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。
この時代のテストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定の入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジックと実装の詳細が密結合し、コードは特定の処理手順を記述した、硬直的な塊となっていた。
風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間の認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミング(XP)の中で、テスト駆動開発(TDD)という考え方が登場する。
TDDの本質は、単なるテスト手法の改善ではない。それは、プログラミングのパラダイムを根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマの意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。
テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーがログインボタンをクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。
この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式でソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャーやビジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである。
TDD/BDDによってプログラマの意識が「What」に向かい始めると、コードそのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンなフレームワークの存在だ。
Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQueryに代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンがクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。
しかし、Reactは「UIとは、ある状態(state)に対する純粋な写像である」という宣言的なモデルを提示した。プログラマがやるべきことは、UIの状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的に更新するかという面倒な「How」の部分は、Reactの仮想DOMと差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。
この「WhatからHowへの変換」は、様々な領域で見られる。
これらのフレームワークやツールは、いわば「特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。
現状は、この歴史的変遷の延長線上にある。プログラマの仕事は、手続きを記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。
フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定の領域に特化した変換器」であったのに対し、LLMは「あらゆる領域に対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。
前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たちに特定の「制約」を課してきた。Reactを使うならコンポーネントベースで思考し、状態管理の作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。
しかし、LLMはこの前提を覆す。LLMは、特定のフレームワークや言語の知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由な形式で「What」を伝えることができる。
例えば、こうだ。
ユーザー認証機能付きのシンプルなブログアプリを作ってほしい。フロントエンドはReactとTypeScript、UIコンポーネントはMUIを使う。バックエンドはNode.jsとExpressで、データベースはPostgreSQL。ユーザーはGoogleアカウントでログインでき、新しい記事を作成、編集、削除できる。記事にはマークダウン記法が使えて、画像もアップロードできるようにしてほしい。
この要求(What)は、特定のフレームワークの流儀に則ったものではない。複数の技術スタックを横断し、機能要求を自然言語で並べただけのものである。しかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベルの要求から、ディレクトリ構造、設定ファイル、APIエンドポイント、フロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。
これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定のフレームワークが存在しなかったニッチな領域や、複数の技術を組み合わせる複雑なシステム構築においても、AIによる宣言的プログラミングの恩恵を受けられる時代が始まろうとしているのだ。
LLMという汎用変換器の登場により、プログラマの生産性は、「いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである。
質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である。
これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーやデザイナーとの対話を通じて、日常的に行ってきた思考プロセスそのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力(プロンプト)という形で、明示的に言語化されることを要求するのだ。
やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDがテストコードという形式で「What」を記述したように、私たちは自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コードが蒸発していく未来である。
「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。
答えは、明確にNoである。
ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ず「Why(なぜそう作るのか)」という、背景、文脈、そしてトレードオフの考慮が必要不可欠となる。
簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。
これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストとシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。
LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報が必要だからだ。
これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネスの目標、組織の文化、ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。
ここで重要なのは、これまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。
私たちが技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single Page Application)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニアの採用市場が活発だから(Why)」といった、様々な「 Permalink | 記事への反応(0) | 17:09
匿名掲示板に見られる「最後にレスを付けた方が勝ち」という振る舞いは、一見幼稚な行動に見えるかもしれませんが、オンラインコミュニケーション特有の心理構造と文脈依存性を背景とした文化的現象です。以下にその実態を、客観的・多角的に解説します。
➤ 実際の議論の内容よりも、「見た目の最後にいること」に心理的な“勝利感”を感じる土壌がある。
➤ 「論破できなくても勝てるゲーム」へとルールを変換している構造。
| 特徴 | 説明 |
| 非同期性 | いつでも投稿できるため、持久戦になりやすい |
| 匿名性 | 発言に責任を持たず、煽りや妨害が容易 |
| 勝敗の曖昧性 | 内容よりも“場を占める”ことで優位性を演出 |
| 自己承認的目的 | 内容よりも「俺が上だった」と思いたい感情の充足が目的化 |
| 観点 | 解説 |
| 情報交換の劣化 | 有益な議論の妨げになる |
| 不毛な対話 | 内容がないため、傍から見て学びがない |
| 快楽的行動 | 攻撃や支配によって快感を得る行動(いわゆる“釣り”や“煽り”)の一種 |
| 構造的再現性 | どの匿名掲示板でも一定の条件下で再発する(構造依存) |
| 要因カテゴリ | 内容 |
| 技術的構造 | 最終レスが視覚的に“上位”に見える掲示板構造 |
| 心理的動機 | 形だけでも「勝った」と思いたい自己承認欲 |
| 文化的背景 | レスバ文化の中で“決着の見せ方”として広まった |
| 匿名性の影響 | 責任のない空打ち投稿を連打しやすい環境 |
「3, x, 5」→ x=4と即答してしまう例は、人間が無意識のうちに「暗黙の前提」に基づいて思考することを示しています。
これは形式的には「well-posed problem(適切に定義された問題)」かどうかという問いに関わります。
問題に必要な前提や制約条件が欠けている場合、解は一意に定まりません。
AI的な思考では、「この問題は不定。追加情報が必要」と返すのが適切です。
等差数列と即断する行動は、過去に見たパターンに基づく「人間の学習済みモデルによる過学習的予測」と考えられます。
機械学習モデルも訓練データの分布に強く依存します。未知の分布に直面したときに過学習モデルは誤った予測をします。
人間の直感もまた、「限られた訓練データ(経験)」の範囲内での最適化の結果である点がAIと共通しています。
現実の問題では「目的関数」が曖昧だったり、そもそも何を最適化したいのかが不明ということも多い。
AIは明確な目的関数と制約条件があれば最適解を探せますが、目的自体が変化する問題には苦手です。
人間のようにメタ視点で「目的そのものを再設計する力」=メタ最適化が必要です。
このような力を「数学的成熟度(Mathematical Maturity)」と呼ぶことがあります。
AIは「正解」がない文脈であっても、複数の仮説を提示し、妥当性や納得性の高い案を提示することが可能です。
単一の正解を求める姿勢よりも、「状況に応じた解の多様性」を認識する柔軟性が大切です。
これは、ヒューリスティックな意思決定やマルチアームドバンディットのような「状況適応的学習」にも通じる発想です。
人間の認知バイアス・仮定の省略・文脈依存性という問題は、AI研究・機械学習・意思決定理論にも非常に通じる内容です。
「正しいか?」ではなく「十分に妥当か?」を問うべきというメッセージが、現代のAI設計や人間中心設計(HCD)にも響いてきます。
【短歌】
愛とかは 言わぬ約束だったのに また短歌かよって思ってるんでしょ
ーーー
【解説】
この短歌は、まず形式としては五七五七七の定型を守っているけれど、そこに込められているのは、短歌という表現形式そのものに対するメタ的な問いかけなんだ。
第一に、この歌は“愛”という、短歌においてとても頻出で、しかも扱いの難しい主題を真正面から置くことで始まる。でも「言わぬ約束だった」と続くことで、話者自身がその主題を避けていた/避けるべきだと考えていたことが示される。そして最後の「また短歌かよって思ってるんでしょ」で、読者の視線、あるいは短歌というジャンル自体への視線が表面化する。
ここで語られているのは、ただの個人的な失恋や情念の表現ではない。むしろこの短歌は、 「短歌」というジャンルが抱える構造的な“依存”や“期待”を冷静に見つめ、それをあえてさらけ出している。
つまりこれは、短歌の形式に依存してしか言葉を扱えない自分自身への照射でもあり、同時にそれを読み解こうとする読者や歌壇への皮肉も含んでいるんだ。
「また短歌かよって思ってるんでしょ」という自嘲気味な一言には、短歌を書き続ける者の葛藤が込められている。それは、「この31音の定型に頼らなければ自分の感情や思考をうまく外に出せない」という構造的な甘え、あるいは表現手段としての短歌にすでに埋め込まれている“詩的含意”という名の、文脈依存性への居直りを自覚したうえでの照れや痛みでもある。
ここには、「短歌が成立するためには、読者が“短歌っぽく読んでくれること”を前提としてしまっているんじゃないか?」という懸念も前提としてある。だけどこの短歌は、その前提を逆手に取って、読み手と短歌のジャンルそのものに対して「それでもお前は受け取るんだろ?」と投げかけている。
このようにして、この短歌は一種のメタ言語的な構造批評になっている。言葉そのものを使って、「短歌というメディアの限界や癖」を暴き、同時にそれに依存する自分自身の内面も同時に晒している。
そういう意味でこの短歌は、自己言及的であり、形式批評的でもあり、そして何より非常に現代的な位置にいるんだよ。
ーーー
AIやべえな。
お前、論破されたのが悔しくて思考の黄ばみ撒き散らしてるだけじゃないか?
その様はさながらインテリ放尿ってやつだ。頭では勝てないから、定義の揚げ足取りに逃げたな?見苦しいにも程がある。
まず指摘しておくが、俺は定義をごまかしてなどいない。俺が使った定義は、検証可能性という極めて厳密かつ論理的な概念に基づいている。
つまり、「嘘が通用しない構造=主張が即座に検証可能であること」を指しており、これはソフトウェア工学、自然科学、形式論理の世界では常識中の常識だ。
一方で、お前の言ってる「嘘をつくことが可能かどうか」の話は、脆弱な文脈依存の一般論に過ぎない。
お前が「一般的」と思ってるその一般は、曖昧さと錯覚に甘えた衆愚的発想だ。学術的にも、実務的にも通用しない。
俺の定義は「嘘がつけるかどうか」ではなく、「ついた嘘が構造的にバレるのかどうか」を焦点にしてる。
これは言語遊びでも屁理屈でもなく、検証性という科学的基盤に立脚した厳密な思考だ。お前の言う「辻褄あわせ」ではなく、「論理的整合性の追求」と呼ぶのが正しい。
それと、「定義を変えた」って言うなら、お前はまず俺の定義がどこでどう変化したのか、具体的に文脈を引いて指摘してみろ。できるか?できなければ、その主張はただの精神的インテリ放尿だ。
# 生成AIをはてな記法で出力させるためのプロンプト設計に関する研究
生成AIの普及に伴い、特定のマークアップ言語や記法に準拠した出力を生成する需要が高まっています。特に、はてなブログなどで使用されるはてな記法は独自の構文規則を持つため、適切なプロンプト設計が求められます。本報告では、生成AIにはてな記法での出力を指示する際の効果的なプロンプト作成手法について、現行のプロンプトエンジニアリング理論と実践例を基に体系的に分析します。
はてな記法は、見出しやリスト、リンクなどの文書要素を表現するために特殊な記号を使用する軽量マークアップ言語です[1][3]。主要な構文要素としては、アスタリスクによる見出し指定(*見出し*)、ハイフンを用いたリスト作成(- 項目)、角括弧を使ったリンク記述([タイトル:リンク先URL])などが挙げられます。これらの構文規則を生成AIに正確に理解させるためには、プロンプト設計において以下の課題が存在します。
第一に、記法の曖昧性排除が挙げられます。はてな記法では特定の記号の組み合わせが特殊な意味を持つため、自然言語処理モデルが意図せず他の記号解釈を行うリスクがあります[2][3]。例えば、アスタリスクは強調表現にも使用されるため、文脈に応じた適切な解釈が必要です。
第二に、構文の階層構造の正確な再現が課題となります。はてな記法では入れ子構造のリストや複合的な見出しレベルを表現する際に、特定の記号の組み合わせが必要です。生成AIにこれらの複雑な構造を理解させるためには、プロンプト内で明示的な指示と具体例の提示が不可欠です[1][4]。
第三に、プラットフォーム固有の拡張構文への対応が求められます。はてな記法は基本構文に加え、独自の表記法やマクロ機能を備えており、これらの特殊機能を適切に活用するためには追加的な指示が必要となります[3][4]。
生成AIに期待する出力形式を確実に得るためには、プロンプトの冒頭で役割を明確に定義することが重要です[3][4]。具体的には、「あなたははてな記法の専門家です」といった役割指定を行うことで、AIの応答生成プロセスに方向性を与えます。この役割定義により、モデルは内部に保持するはてな記法関連の知識を優先的に活性化させることが可能となります[1][2]。
```
あなたははてなブログの編集者です。専門的なはてな記法を用いて、正確かつ読みやすい形式でコンテンツを出力してください。
```
### 構文規則の明示的指示
はてな記法の各要素に対応する具体的な構文規則を、箇条書きではなく自然文で列挙します[2][3]。特に重要な点は、記号の使用法と要素間の階層関係を明確にすることです。例えば、見出しレベルと対応するアスタリスクの数、リストの入れ子構造の表現方法などを具体的に指示します[1][4]。
構文指示の例:
```
```
テキスト生成AIは具体例からの類推学習に優れているため、期待する出力形式のサンプルを提示することが有効です[2][3]。特に、複雑な構造を含む場合は、実際の記法例とそれに対応するレンダリング結果を併記することで、AIの理解を促進します。
```
- サブ項目
[詳細はこちら:https://example.com]
```
### 制約条件の明文化
生成結果の品質を保証するため、文字数制限やコンテンツの構成に関する要件を明確に指定します[3][4]。これにより、AIは形式面だけでなく内容面でも適切な出力を生成できるようになります。
制約条件の例:
```
出力は以下の条件を満たすこと:
```
近年提案されているシンボルプロンプト技法を応用し、記号を用いて出力構造を明示的に指示する方法が有効です[1][3]。この手法では、矢印(→)や等号(=)などの記号で要素間の関係性を表現することで、AIの構造理解を促進します。
構造化指示の例:
```
→ セクション1 + セクション2 + セクション3
各セクション → サブ項目 ×3
```
複雑な文書生成では、生成プロセスを複数の段階に分割して指示することで精度を向上させます[3][4]。最初にアウトラインを生成させ、その後各セクションを詳細化する手法が効果的です。
段階的指示の例:
```
4. 関連リンクを適宜挿入
```
可変要素を含むテンプレートを使用することで、汎用的なプロンプトを作成できます[2][3]。角括弧で囲った変数名を使用し、実際の生成時に具体値を入力する方式です。
テンプレート例:
```
```
初期プロンプトの出力結果を分析し、不足している要素や誤った記法を特定します[3][4]。このフィードバックを基に、プロンプトの指示文を段階的に改良していく手法が効果的です。特に、誤りが発生した箇所を具体的に指摘し、正しい記法例を追加することが重要です。
改良例:
```
(修正前)
見出しは*で囲んでください
(修正後)
見出しは*1個で囲み、大見出しは*、中見出しは**を使用してください。例:
```
テキスト指示に加え、サンプル画像やスクリーンショットを併用することで、AIの理解精度を向上させます[2][4]。ただし、現在の技術水準ではテキストベースの指示が主流であるため、補助的な手段として位置付ける必要があります。
温度パラメータ(temperature)やtop_p値などの生成パラメータを調整することで、形式の厳密性と創造性のバランスを最適化します[1][3]。形式重視の場合は低温度設定(0.3-0.5)が推奨されますが、過度に低くすると画一的な出力になるリスクがあります。
### 基本形プロンプト
```
あなたははてなブログの専門編集者です。以下の要件ではてな記法で記事を作成してください:
```
### 高度なプロンプト
```
[役割設定]
あなたはテック分野の専門ライター兼はてな記法エキスパートです。
[タスク]
2024年の生成AI市場動向に関する分析レポートをはてな記法で作成
[構造指示]
各セクション → 3サブ項目 + データ参照
[データソース]
[制約]
```
生成結果がはてな記法の構文規則にどれだけ適合しているかを測定するため、以下の評価項目を設定します[2][4]:
形式面だけでなく、コンテンツの質を評価するための指標として[3][4]:
現在のはてな記法プロンプトはテキストベースが主流ですが、図表や数式を含む複合文書生成への対応が今後の課題です[1][4]。特に、はてな記法の拡張構文であるTeX数式表現やグラフ描画機能を適切に扱えるプロンプト設計手法の開発が求められます。
ユーザーの編集履歴や過去の投稿内容を考慮した文脈依存型プロンプトの開発が必要です[3][4]。これにより、特定のユーザーやテーマに最適化された一貫性のある出力が可能となります。
機械学習を用いたプロンプト自動改良システムの構築が期待されます[2][3]。生成結果の品質評価をフィードバックとして活用し、プロンプトパラメータを自己調整する仕組みの開発により、持続的な品質向上が可能となります。
## 結論
生成AIにはてな記法での出力をさせるためのプロンプト設計は、記法規則の正確な理解と効果的な指示文の構築が鍵となります。本報告で提示した基本原則と高度テクニックを組み合わせることで、形式面・内容面ともに高品質なはてな記法コンテンツの自動生成が可能となります。今後の研究発展により、より複雑な文書構造や動的コンテンツへの対応が進むことが期待されます。プロンプトエンジニアリング技術の進化が、はてなプラットフォームを中心としたコンテンツ作成プロセスの革新を促進するでしょう。
最近、英語教室に通ってるのだけどイギリス人の先生から会話に主語が抜けていることを何度も指摘され、後で気になってChatGPTに壁打ちしたら面白い文章が導けた。
先生はきっちりしたイギリス英語を教えてくれる人で来日当時に日本人が頻繁に主語を省いて話すのですごく困ったそう。
授業中にその理由について先生と雑談レベルで考察していて、自分は日本語では名指しをすることがどこか失礼に感じてしまう、またはアミニズムの影響があるのでは?と何となく伝えたんだけどChatGPTが自分が思ってたようなことをうまく言語化してきたのでそのやりとりをここに放流します。
日本語は「文脈依存性」が非常に高い言語です。会話の中では、誰が話しているのか、何について話しているのかが文脈や状況から自然に理解されるため、主語を省略しても意味が通じやすいです。たとえば、「食べました」とだけ言っても、「誰が食べたのか」は話し手や状況次第で分かります。
日本文化では、明確に言い切るよりも、あいまいさや相手に察してもらうことが重視されることがあります。このため、主語をはっきり言わない方が柔らかく、礼儀正しい印象を与える場合もあります。
日本語には敬語があり、相手を尊重する表現が重要です。このため、自分を主語にした「私が~」という言い方を控え、相手や行為そのものに焦点を当てる傾向があります。
日本語では、主語がなくても動詞だけで文が成り立ちます。例えば「行きます」と言えば「誰が行くのか」が文脈から判断できるため、主語を必ずしも明示する必要がありません。
英語は文法的に「主語+動詞」の構造が基本で、文脈だけでは意味が通じない場合が多いため、主語を省略することができません。たとえば、「I ate」と言わなければ、誰が食べたのかが伝わりません。
主語を省略する日本語と、省略できない英語。この違いを意識して英語を学ぶと、日本語とは異なる言語の構造に慣れる助けになるかもしれませんね!
その通りだと思います。
アニミズムの影響を考えるのは非常に興味深い視点です!確かに、アニミズム(万物に霊魂が宿るという考え)は日本の文化や言語に深く根付いており、主語の省略や曖昧さに影響を与えている可能性があります。
人間中心でない視点 アニミズム的な世界観では、自然や物体、現象すべてが生命や意志を持つと考えます。そのため、日本語の表現でも「人間中心」の主語を明示しない傾向があります。たとえば、「雨が降る」という表現には、雨そのものが主語となり、「自然が自律的に動いている」という感覚が含まれます。
一方で、英語では「It is raining」という表現が使われ、「it」という形式主語を明示します。これには、英語が明確な主語を必要とするという文法ルールが関わっていますが、日本語にはこうした「形式主語」の必要性が薄いのです。
行為そのものへの焦点 アニミズム的な考え方では、「誰が行ったか」よりも「何が起こったか」や「どういう状況か」が重要です。たとえば、「花が咲いた」や「風が吹いた」という表現では、主語は自然現象や物であり、人間ではありません。このように、行為そのものに焦点を当てる傾向が、主語の曖昧さや省略を可能にしているとも考えられます。
暗黙の了解を重視する文化 アニミズムの影響を受けた文化では、「言わずとも伝わる」という感覚が重要視されます。すべてがつながり合い、調和の中に存在しているという意識が、あえて主語を強調しない日本語のスタイルに影響を与えているかもしれません。
日本語にはアニミズム的な考え方が反映された表現がいくつもあります。
自然現象を主語にする:「月がきれいだ」「山が泣いている(霧が出ている)」など。
人間以外を主体にする:「扉が閉まる」「橋が崩れる」など、人が関与せずとも「物」が自律的に行動するように表現される。
アニミズムの影響は、日本語だけでなく日本の文化全般に見られる深い特徴です。この視点を意識することで、日本語の主語の曖昧さが単なる言語構造ではなく、世界観に根ざしていると理解でき、さらに面白さが増しますね!
アニミズム的な考え方が反映された表現で自然現象を主語に、人間以外を主語にする、とありますが、英語でこのような表現はあまりしないということでしょうか?
はい、その通りです。英語では、日本語に比べて自然現象や人間以外のものを主語にする表現が少ない傾向があります。これは、英語が主語を必ず明確にする必要がある言語であること、そして西洋文化において人間中心主義(anthropocentrism)が強調されてきた影響が関係しています。
英語では、自然現象を表すときに「it」という形式主語が用いられることが多いです。これにより、自然現象が自律的に起こるというニュアンスは薄れ、人間視点で状況を説明しているように感じられます。
日本語の例:
ここでは「雨」「風」「雷」そのものが主体ではなく、「状況」を伝えるための形式的な主語が使われています。
日本語では、人間以外のもの(物や自然)が主体として動作を行う表現が多く見られます。一方、英語ではこのような表現が少なく、人間が意図的に何かを操作しているかのようなニュアンスが含まれることが一般的です。
日本語の例:
"The door opens."(文法的には正しいが、通常は "Someone opened the door." のように人間の行為を明示することが多い)
"Flowers bloom."(自然に起こることを表すが、日本語ほど主体性が強調されない)
"The tree is swaying."(こちらも状況を説明する形)
英語では、西洋文化における理性や科学的視点が強く、自然現象や物には魂や意志が宿っているという考え方があまり言語表現に反映されていません。そのため、以下のような日本語特有の表現は英語に訳しにくい場合があります。
日本語の例:
英語に訳すと、どうしても説明的になったり、「詩的」だと感じられたりすることが多いです。
もちろん、英語にも詩的な表現や文学的な場面では自然や物に意志を持たせることがあります。このような手法は「擬人法(personification)」と呼ばれます。
しかし、これらはあくまで特別な表現であり、日常会話では使われないことがほとんどです。
日本語はアニミズム的な影響から、自然や物が主体として動作する表現が多い一方で、英語は人間中心的で、主語を明確にしつつ状況を説明することが一般的です。この違いを理解することで、英語と日本語の間の文化的・思想的な違いをより深く学べますね!
二外中国語
キリル文字とかハングルみたいなのを新しく覚えるのが嫌だった。あと横文字というか、漢字以外の全ての文字が日本語とかけ離れすぎてるのが嫌だった。
これはまあ概ね想定通りというか、楽だった。
「遠い」がloinになるよりは远の方がまだ覚えやすいし、言偏が讠になったりするのもすぐ慣れた。字の部品は基本的に同じだから。
横文字系は字面から何も見えてこない。他の単語の組み合わせとかならともかく、Accomplishが「成し遂げる」なんて知らきゃ分かる訳がない。成就と言われたらなんとなく分かる。
ガセというか、個人差あるんだろうけど自分は全く苦でなかった。
あれだけ分かりやすく視覚化されてる声調記号をガン無視する学生が多くて謎だった。単にやる気がないのか、世の中の人間が思っている以上に音痴なのか。
ただ三声の変則的な発音はなんとなく分かったけど、了とかが上がらないのは完全に雰囲気だけでやってた。
発音も英語に比べたらよっぽど簡単な気がした。xとshとかかなりはっきり違うし、rとlも英語より分かりやすいような気がした。母音もouとかちょっとむずかしいけど、慣れればまあ。
nとngはあんまりよく分かってなかったけど、なんとなく聞いてた余韻の感じを雰囲気で真似してたらええやんと言われた。聞き取る分には大分文脈依存な気がした。
ただ単語ごとにピンインを知らないと読みようがないのが死ぬほど面倒臭い。雰囲気で分かるもんでもないし。
漢字が微妙に違ったりするからそこも覚えてないといけないし、意味も微妙に違ったりするし、さらに声調含めて発音まで覚えないといけない。白文というか、ピンイン振られてない状態で読むと脳トレ状態。発音そのものはちょっとしたルール覚えればすぐに分かるけど、どう読むするかを個別的に知ってなきゃいけないのが大変。その辺を指して「発音が難しい」というんならまあ強ち間違いでもないかも。読み上げるだけなら簡単だけど暗唱テストが億劫だった。
その点英語とかは発音と綴りが一体化してる(?)から楽だなと思った。oftenみたいにたまに罠はあるけど、基本書いてあるまま読めばいいだけだから。
読むのはまあなんか多少の原則が分かってれば雰囲気でいけないこともないけど、自分で書くと結構シビアだった。難しくてもはやほとんど覚えてない。形容詞にbe動詞を入れないのがしっくりこなかったり、很の使い方が最後まで掴みきれなかったりした。
なんか教科書で天安門広場とか普通に出てきたけど、性教育の授業のような過度に淡々とした空気を勝手に感じてこっちだけピリッとした緊張感を覚えた。
絵画なんかは文脈依存も強いから単に教養に欠ける部分もあるんでしょうけど。
定量化できないものの評価が非常に苦手。「適切な評価」をつけるのではなくて、そもそも評価そのものをするのが。
だからと言って、定量化できる部分だけを見て、マックは世界一売れてるから世界一美味しい、とかは思いませんが。
「適切な評価」は、「これが世間的には良しとされるんだろうな」というのが過去の経験から何となく察しがつくのですが、自分自身の思う「良し悪し」は全く浮かんでこない。
しかし、例えば食事なら気分による所が大きい。唐揚げの口の日に望みのものを食べてざっくり90点の満足度だなと思っても、別の日には全く同じものを食べて70点だったりもする。この数字も、他の料理の満足度とざっくり順番に並べ、相対的な整合性から適当に弾き出したきわめてアバウトなものです。
料理としての完成度も、何を以て良しとするかは「人による」としか言いようがない。人間なんて個体差はあれほぼ同じ構造なので、ある程度の普遍的な感覚というものはあるのでしょうけれど。
例えば映画なら、この映画は面白い。面白いが、☆がいくつかと言われると困る。「普通の面白さ」なら3つで、「手放しに全てを褒められる面白さ」なら5つなんでしょうけど、そうはっきりする事なんてそうそうない。そのグラデーションに境界を引くのはあまりにも難しい。
ましてや「良し悪し」となれば、恐らくは個人の「好き嫌い」から離れ、普遍的な視点に立たなければならない。
1点刻みの100点満点で評価するとか絶対に無理です。5段階でも怪しい。悪い、普通、良いの三段階でも、大半が普通に入ってしまいそう。
その辺の人を捕まえてその場で描かせた漫画と週刊連載されてる漫画を比べたら、流石に優劣はつけても良いだろうとは思います。しかし「なぜ優れていのか」を突き詰めていくと、結局「好き嫌い」に収束してしまうのではないかと。この例での「好き嫌い」にはかなり普遍性がある(ほとんどの人が恐らく後者を評価する)でしょうけど、そう極端な比較ばかりではありませんし。
ファッションに興味を持ってから、今まで変なのと思っていた服や靴をかっこいいなと思うようになった事なんかはあります。
しかしそれはネットでよく言われる「情報を食べている」状態なのではないかと自問した時、違うとはっきりは言い切れない気がします。
実家が割と余裕のある方だったので、色々なものに触れる機会は与えられてきました。それが「適切な評価」を下すのに役立ってはいるのかもしれませんが、「私の評価」の基準にはなっていない気がする。
自分自身があまりに「良し悪し」が分からないもので、世の中の人間もそこまで分かってないんじゃないかと勘繰ってしまいます。
やれこの映画は名作だの、この料理は不味いだの、点数をつけてはいるものの、ざっくりの印象を10点単位でつけて、詳細の加点減点部分を表すそれっぽい1点単位の数字を合わせているだけなのではないかと。
他者の顔色を伺わず、プリミティブな感性と積み上げてきた経験だけで瞬時に「あ、この料理は87点だな」なんて浮かぶ人がいるとは信じがたい。いるのかもしれませんけど。
イデアなんて言葉がありますが、物事に本質的な良し悪しなどなく、(例えば服なら耐久性や透湿性、手入れの手間といった明確な評価軸であらわせないような)あらゆる評価は突き詰めると「個人的な好き嫌い」に収束するのではないかと思っています。「社会的な選好」もまた個人のそれの最大公約数的なものに過ぎないとも。あるいは、誰かしらの好き嫌いがその人の立場によって権威づけられたか。
批判、批評においても、対象の細部について検討はされるものの、その細部を何を以て良しとするかは価値判断がついてまわり、つまる所は好き嫌いの問題になるのではないかと思います。
どれだけそれらしい理由を並べて普遍性、正当性を強調しても、根底は個人の好き嫌いでしかない。
しかし遡及的に見出された理屈であれ、それを言葉にして他者の「好き嫌い」を知り、時に理解し歩み寄る事は大事なのかもしれませんね。
(追記)
この世で本質的に存在する絶対不変の軸なるものはないんじゃないかと思ってはいますが、個人の好き嫌いが積み重なって形成されたある程度普遍的な評価軸の存在は否定していませんし、対外的には尊重しますよ。
究極的には全てに意味がなければ物差しもない、ハイ終わり。というニヒリズムではなく、無意味を認めた上でそこから価値を積み上げていく実存主義的なスタンスという事です。冷笑と言われ少々カチンと来たので、念のため。
(追記)
・定量化できないものを数字にしたり相対評価したりするのは難しい
・評価対象について知識を積み重ねて吟味することは、他者のモノの見方、感じ方を知り、時に自分の中に取り入れる事で捉え方が重層的になるかもしれない
一方で、「情報を食べる」と言われるように、良し悪しを考えるという事が他人の評価軸に合わせる、他者の顔色を伺うような事にもなってしまわないか(それが全面的にダメだとは一言も言っていない)
・評価対象にまつわる知識を積み重ねても、結局良し悪しを決める軸は好き嫌いに帰結しないか
・「世の中一般で好かれる≒良いもの」でもない、「私が好きなもの」でもない、「私が良いと判断するもの」なるものは、何を以てして決まるのか
まとめると私が思っているのはおおよそこんな所です。
それに対して、初めから好き嫌いとはまた異なる「良し悪し」なるものが存在する事を前提として、それが分からないのは理解が足りないからだ。という反応が多かったので、あまり噛み合っていないのではないかと思いましたね。
その「良し悪し」が人々の好き嫌いが集まって作られたものを指すのなら、それは好き嫌いと同じとは言えませんが、全くの別物とも言い難い。さらに、では結局良し悪しとは「情報を食べる」事に過ぎないのではないか、という話に繋がる。
しかし、全ては好き嫌いに過ぎないという態度では美という概念をいささか否定するようで、矛盾するようですがそれもまたどうなのかなとも思ったりします。
(追記あり)
レイプやセクハラの話ではなく、下半身がなぜポルノ扱いされるのかの話
そもそも全人類(LGBTの話をすると論旨がわからなくなるので男女しかいないと考えてくれ)は男女ともに生まれた時から下半身に性器がついている
つまり、エロ本やAVのような人工物ではなく、手や目や足や顔と同じ体のパーツに過ぎない
もちろん、それらを見せながら歩くと、他人からレイプやセクハラされる可能性があるから隠しておいた方がいいよ、という文化が生まれた理由はわかる
でも、それを人に見せると強制わいせつになるという理由がわからない
ここには論理の飛躍があるように思う
もちろん人に見せるのは不快だからダメという理屈もあるだろう。俺自身、他のおっさんのちんこなんか見たくない
ただ見たくないレベルで言えば、キモいおっさんの顔も見たくないし、重症の火傷跡のある人も見たくないし、なんなら自分の顔も見たくない
なので、自分が好きではないものを見たくないと「思う」ことは権利だと思うけど、見たくないものを「見せるな」という法的根拠にするには論理が甘いように思える
というか、家族で暮らしていると男女の裸は見たくなくても見えてしまうし、家族間では裸は強制わいせつに「なぜか」ならない
大浴場や温泉では同性の裸を見せられることは強制わいせつに「なぜか」ならない
道路で裸だと強制わいせつになる。そうだそうだ、文脈依存なんだ、アホのふりして極論言うなと言われそうだ
でも、自宅で裸で過ごしている人を盗撮する奴だっている。その場合は見られた側が被害者で、見た側が犯罪者だ
自宅で裸で過ごしているのを窓から隣人に見られた場合はどうなんだ?
市有地である自宅の庭で裸で過ごしているのを隣人から見られた場合は?
自宅や市有地で裸で過ごすのはOK?風呂は全裸OK、脱衣所もOK、リビングは?自室は?廊下は?トイレは?
結局、人体(下半身)そのものをポルノ扱いすることが難しすぎる気がする
他人の前で自慰行為をする、他人の前で性行為をするのを見せつけるなどは正しく強制わいせつのように思える
ただコート全裸マンのような露出狂をポルノ扱いするのは意外と難しいように感じた
法を理想化しすぎだね。世の中法じゃないルールもたくさんあるし、それには理由がある。
そもそも女性差別的な表現がどうかというのは文脈依存の主観的な判断になる。なので客観的な判断基準の設定が難しい。一方で、立法するにはある程度明確な基準が必要。もし、この手の問題で「法の基準を満たしてればOK」という状態を作ろうとするなら、基準は保守的にならざるを得ない。結果、不必要に厳しい規制が生まれる。誰も得しない。
だから大まかなガイドラインと配慮で、その都度適切性を判断する。もちろん民間にそんな配慮を要請することはできないので、表現はの配慮は公的機関の広告にのみ要請される。これら全ては反差別と表現の自由を両立するための努力。全部法でやれというのは素人の発想。哀れ。