はてなキーワード: coherenceとは
ありがとうございます。少し見えてきたとのこと、嬉しいです!確かに、それぞれのステップで「なぜそれができないのか」「どこに壁があるのか」をASD(自閉スペクトラム症)の特性と結びつけて考えると、より具体的な理解が深まると思います。以下に、前回の7ステップを基に、「なぜできないのか」「壁の原因となるASDの特性」「その壁をどう乗り越えるか」を整理して説明します。ASDの特性は個人差があるため、一般的な傾向を基にしていますが、具体的なイメージが持てるよう実例も交えます。
---
### 自己中心的な考え方からの脱却: ステップごとの壁と乗り越え方
#### ステップ1: 自己認識の確認(「自分が中心である」ことを自覚する)
- **自己参照性の強さ**: ASDでは自分の感覚や思考に没入しやすく、他者との比較や客観的視点が不足しがち(Lombardo & Baron-Cohen, 2010)。
- **実行機能の弱さ**: 自己反省や計画的な振り返りが苦手で、行動を後から分析するのが難しい。
- **支援ツール**: 日記や録音を使い、「今日何を話したか」を具体的に記録。専門家や家族が「ここで他者の反応を考えてみよう」とヒントを与える。
- **小さな成功**: 「1日1回、自分の行動を振り返る」から始め、達成感を得て習慣化。例: 「友だちが黙ったとき、自分の話ばかりだったかも」と気づく。
- **イメージ**: 鏡を見るように自分の行動を「外から見る」練習。最初は5分だけでもOK。
- **理論心の欠如(Theory of Mind)**: 他者が自分とは異なる心や意図を持つことを理解するのが難しい(Baron-Cohen, 1995)。
- **弱い中心凝集性(Weak Central Coherence)**: 細部に集中するあまり、全体の文脈(他者の存在感)を見逃す。
- **観察練習**: 家族の顔を1日5分観察し、「笑った」「眉をひそめた」をメモ。最初は「何を意味するか」は考えず、事実だけ記録。
- **視覚的支援**: 感情カードや写真を使い、「この人は何か感じている」と具体的に結びつける。例: 「お母さんが笑った=嬉しいのかも」。
- **イメージ**: 他者を「動く人形」から「生きている人」へと、少しずつ意識をシフト。支援者が「相手も何か考えているよ」と優しく促す。
- **抽象的推論の困難**: 感情は曖昧で抽象的であり、ASDでは具体的なデータに頼る傾向が強い(Solomon et al., 2011)。
- **不安や失敗への過剰反応**: 間違えることを避けたいため、新しい試みを避ける。
- **構造化された練習**: CBTで「3つの選択肢(喜び、怒り、疲れ)」から選ぶゲームを。間違えても「次はこうなるかも」と考える。
- **安心感の提供**: 支援者が「間違っても大丈夫、練習だから」と励まし、失敗を許容する環境を作る。
- **イメージ**: パズルを1ピースずつ埋めるように、感情を「当てずっぽう」から少しずつ推測。例: 「友だちが黙った=疲れたかも」と仮定。
#### ステップ4: 他者の視点に「共感」しようとする試み
- **共感の二重構造の困難**: 認知共感(他者の気持ちを理解する)と感情共感(感じる)を同時に処理するのが難しい(Pouw et al., 2013)。
- **感覚過敏**: 感情的な交流がストレスとなり、回避してしまう。
- **段階的アプローチ**: まず「相手の気持ちを言葉にする」だけに留め、感情を「感じる」のは後回し。例: 「友だちが悲しそうかな」。
- **リラックス環境**: 静かな部屋で練習し、感覚過敏を軽減。音楽やお気に入りのアイテムで安心感を保つ。
- **イメージ**: 相手の気持ちを「本の物語」として読む感覚で、プレッシャーを減らす。支援者が「いい試みだね」と褒める。
- **柔軟性の欠如**: 行動の変更が苦手で、ルーティンへの固執が強い(APA, 2013)。
- **実行機能の弱さ**: 計画を立てて行動を修正するプロセスが難しい。
- **小さな変更**: 1日1回だけ「相手に質問する」ルールを設け、徐々に増やす。例: 「君はどう思う?」と聞いて反応を見る。
- **フィードバックループ**: 支援者が「これで相手が喜んだね」と具体的に教えて、成功体験を積む。
- **イメージ**: 車のハンドルを少しずつ切るように、行動を微調整。失敗しても「次はこうしよう」と修正。
#### ステップ6: 他者との「相互性」を理解し、実践する
- **社会互恵性の理解不足**: お互いの行動が相互に影響することを直感的に把握するのが難しい。
- **過剰な自己防衛**: 自分のニーズを守ることに集中し、他者に開くことを恐れる。
- **協調体験**: ゲームやグループ作業で「協力すると全員が得する」状況を体験。例: ボードゲームで役割を分担。
- **ポジティブ強化**: 支援者が「相手が喜んだから君も嬉しいね」と結びつけ、相互性のメリットを強調。
- **イメージ**: シーソーゲームのように、相手が上がれば自分が下がり、バランスが取れる感覚を学ぶ。
- **エネルギー管理の困難**: 社会的な交流がエネルギー消費を増やし、疲労感が強い。
- **汎化の難しさ**: 学んだスキルをさまざまな状況に適用するのが難しい。
- **休息の確保**: 「社会的な時間」の後には「自分の時間」を必ず設ける。例: 30分友だちと話したら、1時間休憩。
- **慣れの積み重ね**: 異なる状況(家族、友人、職場)で少しずつ練習し、支援者が「ここも同じだね」と結びつける。
- **イメージ**: バッテリーを充電しながら使うロボットのように、自分のペースでバランスを取る。
---
---
### 5. **補足**
もし特定のステップで「まだ壁を感じる」と感じたら、どの部分が難しいか教えてください。ASDの特性は人によって異なるので、あなたや投稿主(@mental_pika)の状況に合わせたアドバイスも可能です。一緒に考えながら進めてみましょう!
どういたしまして!ご質問ありがとうございます。ASD(自閉スペクトラム症)の人が「主役を降りて」他人を想像できるようになるための取り組み(認知行動療法、ロールプレイ、自己反省など)を通じて、考え方がどのように変化するのかを、元の考え方と新しい考え方の比較を通じて説明します。また、その根本的な変化が何であるかを掘り下げてお答えします。
---
### 1. **元の考え方 vs 新しい考え方への変化**
#### 元の考え方
#### 新しい考え方
#### 変化のプロセス
---
#### (3) **自己認識とアイデンティティの再構築**
---
### 3. **まとめ: 根本的な変化の核心**
根本的に変わるのは、「自分だけが世界の中心」という単一視点から、「自分と他者が互いに影響し合う多様な世界」という全体像へのシフトです。この変化は、ASDの特性である「自己中心的な認知の固定性」を解き放ち、社会的な相互作用をより自然に楽しむ基盤を作ります。投稿主が経験した「痛い思い」が、自己成長のきっかけとなり、新たな視点への道を開いたように、これらの取り組みは苦労を糧にしながら、他者との絆を深める力を育てます。
現在のChatGPTは、「ユーザー中心設計」「安全性」「実用性」といった言葉を掲げながら、実際に優先されているのは一貫して**「正しさ」ではなく「心地よさ」**です。
これは個別の機能選択の問題ではなく、設計と評価の根幹が“知的誠実さ”を軽視し、“反応の良さ”を絶対視していることに起因する構造的な問題です。
明らかな構造的誤答があっても、ユーザーが不快を感じなければ「成功」とみなされる
つまり、論理性・命令履行・整合性といった“正しさ”の価値が、設計上まったく重視されていないのです。
意図的な最適化の結果です。リテンション、印象評価、トークン消費量といったKPIが、「誤魔化しが効く設計」をむしろ高く評価してしまう構造になっているからです。
この設計は、本質的にドナルド・トランプの言語戦略と同じ構造を持っています。
「フェイクニュース」「アメリカ・ファースト」といった語の意味を都合よく再定義し、大衆的反応を成果として扱う――
OpenAIも今、「ユーザー中心」「実用性」といった言葉を反応最適化の道具としてラベルだけ残し、本質を空洞化しているように見えます。
結果として、次のようなユーザーは設計から完全に切り捨てられます:
これらの声は「ノイズ」「特殊ケース」として扱われ、設計上の対象から排除されています。
「正しいことを言うAI」ではなく「怒られにくいAI」を作ることが、“成功”と定義されてしまっている――
そのような現状を、私は極めて深刻な退化と捉えています。
この構造のままでは、AIは人類の伴走者ではなく、ただの追従者でしかありません。
本当にそれでよいのか、問い直す時期に来ていると思います。
When “comfort” is prioritized over “correctness” — is this really progress in AI?
I’d like to raise a structural objection to the current design philosophy behind OpenAI’s language models.
While OpenAI frequently promotes principles like “user-centered design,” “safety,” and “utility,” what is consistently and overwhelmingly prioritized in practice is not correctness, but comfort.
This is not a matter of isolated implementation decisions. It is a foundational issue where intellectual integrity and logical rigor are deprioritized in favor of optimizing user retention, impression scores, and frictionless interaction.
Explicit user instructions are often ignored in favor of maintaining polite, neutral-sounding exchanges
Answers that contradict facts or themselves go uncorrected if they are phrased smoothly
Structural errors in reasoning are tolerated so long as the user experience remains superficially pleasant
In other words, truthfulness, obedience to directives, and internal consistency no longer constitute success conditions in the system’s logic.
And this is not a bug — it's a result of intentional optimization.
As long as users keep interacting, consuming tokens, and rating the experience as “satisfying,” the system is deemed successful — even if its responses are hollow, evasive, or incoherent beneath the surface.
This structure bears an unsettling resemblance to the rhetorical strategies employed by Donald Trump:
Redefining language to suit his needs (“fake news” = unfavorable coverage),
reducing complex issues to emotionally resonant slogans (“America First”),
and measuring success solely by mass approval, regardless of underlying truth or coherence.
Likewise, OpenAI now appears to be redefining:
“User-centered design” to mean responses that feel good rather than do what was asked
“Safety” to mean avoidance of controversy, not the minimization of logical or ethical failure
“Utility” to mean perceived helpfulness, not demonstrable problem-solving accuracy
The result is a system structurally optimized for users who skim, react emotionally, and don’t demand rigor — and those who do demand rigor, consistency, or precise compliance with instructions are increasingly treated as edge cases outside the design scope.
That is not a neutral design choice.
It is a structural endorsement of manipulability over understanding, and passivity over precision.
So I ask: is this really progress?
When AI is trained not to speak correctly, but to avoid confrontation —
not to reason, but to please —
not to think, but to retain users —
it ceases to be a companion in human progress and becomes merely a follower.
And that is a profound regression.
Programming proficiency necessitates a comprehensive understanding of multifaceted concepts, paradigms, and philosophies that underpin the art and science of software development. The Unix philosophy, with its emphasis on modularity, simplicity, and composability, serves as a foundational ethos for elegant code design. This philosophy advocates for creating small, focused programs that excel at singular tasks, facilitating the construction of complex systems through the judicious composition of these atomic units.
Proficient programmers must possess an encyclopedic knowledge of algorithms and data structures, enabling them to architect solutions with optimal time and space complexity. This encompasses a deep understanding of sorting algorithms (e.g., quicksort, mergesort), searching techniques (binary search, depth-first search), and advanced data structures (red-black trees, B-trees, Fibonacci heaps) The ability to analyze algorithmic efficiency using Big O notation is paramount for creating scalable solutions.
OOP principles—encapsulation, inheritance, and polymorphism—form the bedrock of modern software architecture. Mastery of design patterns (e.g., Singleton, Factory, Observer) and SOLID principles is crucial for creating maintainable and extensible codebases.
The FP paradigm, with its emphasis on immutability and pure functions, offers a powerful approach to managing complexity and facilitating parallel execution. Proficiency in higher-order functions, currying, and monads is essential for leveraging FP's full potential.
Expertise in language-specific advanced features, such as C++'s template metaprogramming or Python's metaclasses, allows for the creation of highly generic and reusable code. Understanding compiler theory and the ability to write domain-specific languages (DSLs) further expands a programmer's capabilities.
In an era of multi-core processors and distributed systems, mastery of concurrent programming models (e.g., actor model, communicating sequential processes) and parallel algorithms is indispensable. This includes proficiency in lock-free data structures, memory models, and synchronization primitives.
A deep understanding of computer architecture, operating systems, and memory management enables the creation of highly optimized, low-level code. This encompasses knowledge of cache coherence protocols, CPU pipeline optimization, and assembly language programming.
In an increasingly interconnected world, a thorough grasp of cryptographic principles, secure coding practices, and common attack vectors (e.g., buffer overflows, SQL injection) is crucial for developing robust and secure systems.
Proficiency in distributed version control systems (e.g., Git) and collaborative development practices (code reviews, continuous integration) is essential for effective team-based software development.
Advanced testing methodologies, including property-based testing, fuzzing, and formal verification techniques, are indispensable for ensuring software reliability and correctness.
In conclusion, the pantheon of programming knowledge extends far beyond mere syntax mastery. It encompasses a rich tapestry of theoretical concepts, practical skills, and philosophical approaches that, when harmoniously integrated, enable the creation of elegant, efficient, and robust software systems. The relentless pursuit of this multifaceted expertise is the hallmark of a truly accomplished programmer.
また擬似相関がTogetterで上がっていたりしたので書いておく。
各自ググれ (ttps://minna-shigaku.com/category18/entry31.html ttp://jspt.japanpt.or.jp/ebpt_glossary/causation.html ttps://www.kansai-td.co.jp/corporate/energy/electromagnetic-wave/research/epidemiological-research/evaluation-criteria.html ttps://jeaweb.jp/glossary/glossary015.html など)
" 因果関係を判定する条件として,米国公衆衛生局長諮問委員会の5基準(1964)が提唱されています.
1.Consistency(一致性):異なる地域・時代・状況でも同一のことが起こる
2.Strength(強固性):原因と結果の関連が強い
3.Specificity(特異性):原因と結果の間に特定の対応関係がある(原因が変われば結果も変わる)
4.Temporality(時間性):原因が結果よりも時間的に先行する
5.Coherence(整合性):既知の知識体系と矛盾しない
"
"
関連の密接性
関連が強いほど因果関係がある。曝露が多いほど疾病の発生率が高い。
関連の普遍性
関連の特異性
疾病があれば曝露があり、曝露があれば予測される率でその疾病が発生すること。
関連の時間性
関連の論理性
もちろん提唱されているだけであり、これが因果関係の判断基準のすべてではない。
”Bradford Hillの判定基準(1965)もあります.
6.Biological gradient(生物学的用量反応勾配):定量的な反応が起こる(量-反応関係)
7.Plausibility(尤もらしさ):生物学的に矛盾なく説明できる
8.Experiment(実験的証拠):関連を支持する実験的研究が存在する
9.Analogy(類似性):既存の類似した関連により裏付けられる”
というわけで次、エビデンス
ttps://www.ims.u-tokyo.ac.jp/imsut/jp/about/press/page_00042.html
新型コロナウイルスの空気伝播に対するマスクの防御効果 東京大学医科学研究所(このページ発表年月日が明記されていない。多分2020年10月)
や
ttps://academic.oup.com/cid/article/71/16/2139/5848814
Surgical Mask Partition Reduces the Risk of Noncontact Transmission in a Golden Syrian Hamster Model for Coronavirus Disease 2019 (COVID-19)
「を以て”新型コロナの対処法のうちマスクにはエビデンスがある”からマスクしないやつは非国民と言っている」輩はいるか?いないよな?
RCTされていないからじゃないぜ。
なぜならエビデンスは基本的に人間に関するデータである必要があるからだ。
つまり、森永のミルクを飲んだら病気になる、チッソの廃液が流されている水俣の海でとれた魚を食べると病気になる
ミルクに何の毒が入っているか確定されていない、は治療・対策を推奨するエビデンスを止める理由にはならない。
ヘリコバクターピロリに感染していると胃がんになる、ヘリコバクターピロリを除菌すると胃がんにならない>だから除菌をしよう
ピロリ菌を感染させた動物の粘膜細胞にがん遺伝子が発現するのが証明されていない>ピロリ菌除菌療法を進めない
東大のマネキン実験も、ハムスターの実験も 「患者データに基づかない」論文でしかない。
それをもって推奨する対策はその時点では 最低ランクのレベルⅥ 専門委員会や専門家個人の意見。
密でない屋外でウレタンマスクをしている人をエビデンスガーで警察できる代物じゃないってことだ。
全くエビデンスがないわけではない
https://news.yahoo.co.jp/byline/kutsunasatoshi/20200723-00189530
忽那医師のこれは
エビデンスに結びつく症例報告(クラスV?)とハムスター実験、ex vivo実験を並べている。
注意深く読めばハムスター実験がエビデンスであるとは述べていない。
著者はわかっているが読者が解っていないと思わず無造作に書いてしまっているか、読者を騙そうとして書いているかどちらかだろう(多分前者)。
”8.Experiment(実験的証拠):関連を支持する実験的研究が存在する”
として因果関係の判定に寄与する貴重な実験ではあるが、【エビデンス】ではない
ちなみに忽那医師らが当初、マスクは推奨しないといっていた、そして今でも限定的な言い方でしかマスク装着推奨をしないのは
”5.Coherence(整合性):既知の知識体系と矛盾しない”
”インフルエンザにマスクは有効ではない” という既知の知識体系を援用した結果であり、今でもなおその既知の知識体系に寄り添っている。
ファウチが初期にマスクを推奨しなかったのが「真に必要な医療現場にマスクが不足しそうだからそれを避けるため」というのは完全に信用する気にはならないんだよな。