はてなキーワード: アーキテクチャとは
だが、あれを“次世代機”なんて呼ぶのは、あまりにもおこがましい。
あんなの、十年前の設計思想をツギハギした「老朽アーキテクチャのゾンビ」だよ。
エンジンの限界を誤魔化して“効率化”なんて言ってるのは、昭和の家電と同じ発想だ。
まるでワードやエクセルのマクロ地獄を延命し続けたWindowsの焼き直しだな。
結局、Switch2がやってることは“UIのスキンを変えただけ”。
中身はレガシーの塊。
Joy-ConをBluetoothで繋いで、またジョイコンドリフトを再発させる気か?
Cellは賛否両論あったが、“過去の互換”なんていう鎖を自ら断ち切った。
そしてフルスクラッチでマルチスレッド・ストリーミングの未来を提示した。
あれこそ「次世代機」だった。
Switch2? あんなの“古い泥舟の塗り直し”に過ぎない。
任天堂は“過去資産を捨てない”ことを美徳だと思っているらしい。
AIが使用履歴を解析し、視線追跡と入力予測でゼロレイテンシを実現する――
それが本当の意味での“快適性”だ。
なのにSwitch2のUI?
「スペックじゃない、遊びだ」
――聞き飽きた言葉だ。
Switch2がやってるのは、“過去の懐古”と“子供向けマーケティング”の繰り返し。
21世紀のエンタメを自称するなら、まずOSを捨てろ。GUIを再設計しろ。
Switch2は“過去の遺物”を温め直しただけの奇形化デバイス。
十年後には、PS3が示した理念の方がずっと前衛的だったと気づくだろう。
この国のメーカーが「レガシー互換」という鎖を断ち切れない限り、
Switch2?
AIにとっては、Pythonのような中間表現を生成させる方が得意であると考えられます。
中間表現(Pythonなど): 人間が理解しやすいように設計されており、抽象度が高いです。AIは、より少ないトークンで複雑なロジックを表現でき、学習データも豊富にあるため、意味的な整合性やロジックの正確性を保ちやすいです。
機械語: 抽象度が非常に低い(CPUの命令レベル)です。特定のCPUアーキテクチャに依存し、メモリ管理やレジスタ割り当てといった低レベルの詳細をすべて正しく処理する必要があります。これはAIにとって学習が複雑で、小さなミスがプログラム全体の破損につながりやすくなります。
中間表現: 比較的長いコンテキストを保持しやすく、デバッグやエラーの特定も高レベルで行えます。
機械語: 必要な命令数が多くなりがちで、AIが長大なバイナリシーケンスを生成する際に、コンテキストウィンドウ内に必要な情報すべてを保持しきることが難しくなる可能性があります。また、中間表現と比べて意味的な構造が薄いため、AIがバグのないコードを生成するのが格段に困難になります。
中間表現: Pythonのような高級言語は、特定のハードウェアに依存しないため、移植性が高いです。
機械語: 特定のアーキテクチャ(例: x86, ARM)に完全に依存するため、AIが異なる環境向けにコードを生成する場合、それぞれのアーキテクチャごとに学習と生成を行う必要があり、汎用性が低くなります。
現在のAI(特に大規模言語モデル)の能力は、人間が扱う高レベルの抽象的な概念やロジックの理解に優れているため、その能力を最大限に活かせる中間表現の生成の方が得意です。
機械語の生成は、極めて精密で低レベルな制御が要求されるため、AIにとってはるかに難易度が高いタスクとなります。
AIが中間表現を生成した場合でも、その後の処理(コンパイルやJITコンパイル)によって最適化され、最終的な機械語が生成されます。
これは従来のコンパイラ設計と同じアプローチであり、AIは「何をすべきか」という高レベルの指示に集中し、コンパイラが「どのように効率的に実行するか」という低レベルの処理を担当する、役割分担の面でも合理的です。
Q.
生成AIにソフトウェア開発を支援してもらう場合、ソースコードの作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?
A.
生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデル)ベースの生成AIは、ソースコードの生成には向いていますが、実行可能なバイナリファイルを直接出力することには根本的な制約があります。
技術的な制約
LLMはテキストベースのトークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式でデータを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在のアーキテクチャでは実現が困難です。
従来のソフトウェア開発では、ソースコード→コンパイル→アセンブル→リンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化や機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。
研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセスが必要になると考えられます。
実務では、生成AIにソースコードを作成してもらい、それを従来のコンパイラやビルドツールで実行ファイルに変換する方式が標準的です。この方法であれば、デバッグやテストも容易で、生成されたコードの品質を確認しながら開発を進められます。
なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途の場合であり、汎用的な実行ファイル生成とは異なります。
Q.
A.
おっしゃる通り、画像生成AIもバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。
アーキテクチャの違い
画像生成AIは拡散モデル(Diffusion Model)やGANなど、視覚データに最適化された専用のアーキテクチャを使用しています。一方、LLMはTransformerベースのテキスト処理に特化した構造を持っています。画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データ(バイナリ)を出力します。
画像ファイルのバイナリは連続的な数値(ピクセル値)の集合であり、各ピクセルが色情報を持つという規則的な構造です。最近の研究では、画像をビットプレーン(bit-plane)として扱い、XOR演算でノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。
対して、実行ファイルのバイナリは機械語命令の複雑な配列であり、CPUが直接実行できる命令コード、データセクション、リンク情報などが厳密な形式で配置されています。わずかなビット誤りでもプログラムが動作しなくなるため、画像のような連続値とは性質が大きく異なります。
画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターンを学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析、最適化、機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。
したがって、画像生成AIが成功しているのは、画像という特定のドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。
せません!
って思うわ。
20年ほど前に業界に入って、OJT受けたおっさんにOJT受けたエンジニアか? w
ソフトウェアエンジニアリングは、しきたりを1ミリも変えたらいかん伝統芸能ちゃうねんぞ!
E2Eテストなんて、今時のWebサービスの規模、複雑度っていう圧倒的物理量に追いつけるわけがないんだよ。
屁の突っ張りにもならないどころか、
爆上げさせてる
いや、そもそもE2Eテストとセキュリティリスク、なんの関係があるんや? って問題はあるんやけど w
本来そんな機能がないのにあると勘違いして使うことの危険っての、教えてもらわんとわからんか?
って、安全帯のフックを自分のベルトにかけて、送電線の点検ができるか?
安全帯自体の機能として落下防止が当然あるけど、「正しく使わないと正しく機能しない」し、そもそもそれ、体重を支えられるのか? それ以前に安全帯か? ただの100円ショップで売ってたキーホルダーちゃうか? って問題なんよ。
安全帯でも負荷を支えられなきゃ意味ないし、物が違えば、キーホルダーはキーホルダーだし、安全帯は安全帯なんだよ?
Web記事とかの「単語」だけ相手にするから、こういう致命的な間違いをガンガン積み上げて、炎上現場、高粘性現場にレベルアップさせるんだよ。
DDD、TDD、クリーンアーキテクチャ、マイクロサービス、DevOps。
本人達は真面目に輸送機から「素晴らしいもの」を得るための手順を踏んでるという認識しかなく、おかしなことをしてる自覚が皆無っての、そのままだって気づけ。
理解してるなら、その目的がちゃんと達成できてるか、確認してるか?
ちゃんと適用されたまともな現場を知らんで、「こんなもんでしょ」で満足してるの、頭おかしいぞ。
猿か?
現実の戦闘機で、パワーアップアイテムを付与すると機能アップすることはありますか?
ChatGPT:
あります。ゲームみたいに“拾って即パワーアップ”ではありませんが、実機も「後付けの装備」や「ソフト更新」で性能を伸ばせます。代表的なものを挙げます。
偵察/標的指示ポッド(例:Litening/Sniper/LANTIRN)
→ 夜間・高高度から目標を見つけてレーザー誘導・GPS誘導爆弾を当てられるようになる(F-16、F-15、F/A-18など)。
電子戦ポッド(ALQ-99、ALQ-131、ALQ-184 など)
→ 敵レーダーを妨害。編隊の生存性アップ(EA-18G、F-16等)。
IRSTポッド(赤外線捜索追尾:F-15用 Legion Pod 等)
兵装・装具での戦闘力向上
ヘルメット照準器+高機動短距離AAM(JHMCS+AIM-9X 等)
→ 視線でロック、オフボアサイト射撃で近接戦闘力が大幅アップ。
航続・運動性能の補助
→ 航続・滞空時間を増やす(F-16C Block 50/52+ 等)。ただし空力やRCSは悪化し得ます。
エンジン改修・推力向上
→ 同型機でも離陸性能や上昇率が向上(近代化改修で実施されることあり)。
ミッションコンピュータ&ソフト更新(“ブロック”アップデート)
→ 新兵器対応、センサー融合、電子戦アルゴリズム強化など。最近はオープン・アーキテクチャ化で“機能の後入れ”が容易に。
統合・認証が必須:空力、強度、電源・冷却、電磁両立性まで試験し、飛行許可を取る必要があります。
トレードオフ:外付けは重さ・抗力・RCS増で航続や運動性が落ちることがある。
整備・訓練コスト:新装備を活かすには整備体制と乗員訓練が要る。
まとめ:現実の戦闘機も“アイテム装着で機能アップ”は十分あり、ポッド・兵装・ソフト更新・改修でミッション能力を大きく伸ばせます。ただし、その都度しっかりした統合・認証と運用上のトレードオフが伴います。
以下ChatGPT
自分のホームページ(自前ドメイン+自前HTML)を一度でも作って運用すると、SNS中心の“受け手”視点から、仕様・検索・配信・所有・継続の“作り手”視点に脳が切り替わる。結果、情報リテラシーは跳ね上がり、ネットのニュースや流行の見え方が根本から変わる——しかも想像以上に。
Before(作る前): Web=SNSのタイムライン。良し悪しは「バズってるか」「見やすいか」
After(作った後): Web=プロトコル+ブラウザ+HTML/CSS/JS+CDN+検索エンジン。
ページは**文書(Document)**であり、配置(IA)、意味づけ(セマンティクス)、配信(HTTP/HTTPS/HTTP/2/3)、キャッシュ戦略が気になりだす。
→ 同じ記事でも「タイトルの付け方」「hタグ構造」「画像最適化」「OGP」「サイトマップ」がまず目に入るようになる。
プラットフォーム依存の脆さを体感:規約変更やシャドウバンで露出が消える。
自サイトの資産化:ドメインに紐づくURLはリンクされ、検索に積み上がり、10年後も生きる。
POSSE(Publish (on your) Own Site, Syndicate Elsewhere):まず自分のサイトに出してから外部へ配信する習慣が身につく。
3. “好き/嫌い”から“なぜ速い・なぜ遅い”へ
Core Web Vitals(LCP/FID/CLS)や画像の遅延読み込み、フォント最適化の重要性が腹落ちする。
広告・計測タグの重さに過敏になる。読者体験を壊さないためのパフォーマンス予算という概念が生まれる。
キーワード選定は“流入ゲーム”ではなく読者の課題→コンテンツ設計に帰着。
内部リンク・パンくず・スキーマ(構造化データ)・サイトマップの意味が実務として理解できる。
“書けば伸びる”ではなく“検索意図を満たす設計が伸びる”に目が覚める。
alt、見出し階層、コントラスト比、キーボード操作、焦点管理など、見えない品質が最重要になる。
デザインは飾りではなく“読み・理解・操作”のためのユーティリティだと分かる。
たまたま当たる1記事より、更新の継続・アーカイブ性・RSSのほうが効くと実感。
コメント欄・メールフォーム・X連携よりも、ニュースレターやRSS購読者の質に価値を見出す。
ドメイン、DNS、証明書、バックアップ、法務(特商法・プライバシーポリシー)に“運用者の責任”が生まれる。
その重みが情報の信頼性を引き上げる(=他人のサイトの苦労も見えるようになる)。
トレンドは“輸入”ではなく選別になる。自分の歴史に合うものだけを採用して積層していける。
A. 最小HTML(雛形)
<meta charset="utf-8" />
<meta name="viewport" content="width=device-width,initial-scale=1" />
<title>あなたの名前 | ホーム</title>
<meta name="description" content="自分のホームページ。制作物・日記・メモを置いていきます。">
<link rel="alternate" type="application/rss+xml" title="RSS" href="/feed.xml">
<meta property="og:title" content="あなたの名前 | ホーム">
<meta property="og:description" content="自分のホームページ。制作物・日記・メモ。">
<meta property="og:type" content="website">
<nav>Home / About / Posts</nav>
<footer>© 2025 あなたの名前</footer>
GitHub Pages(Jekyll標準。Rubyベース、Node不要)
Cloudflare Pages(静的ファイルを置くだけで高速CDN)
レンタルサーバー(静的HTML+SFTP/rsyncで十分)
C. ドメインの基本
DNSはA/AAAA/CAA/TXT最低限、HTTPS必須(Let’s Encryptで無料化)。
D. “最低限の品質チェック”5点
ログを読む:Search Consoleと簡易アクセスログで“本文よりメタ情報”を磨く。
日本を代表する大企業において、50代の社員が直面する「無言の退職圧力」は、もはや例外的な事象ではなく、構造的な問題として常態化している。長年の経験と専門性を蓄積したベテラン人材を早期に手放し、その一方で育成に10年という歳月を要する未経験の新卒者を採用する──この一見不合理なサイクルは、なぜ繰り返されるのか。本レポートは、この問題の背景にある経済的力学と制度的欠陥を解き明かし、日本企業が直面する人事制度の根本課題に対する処方箋を提示することを目的とする。
この問題の核心には、見過ごすことのできない重大なパラドックスが存在する。
この矛盾した人材サイクルの根本原因は、個々の企業の経営判断ミスという表層的な問題ではない。それは、日本型雇用システムに深く根ざした「年功序列型」の賃金体系そのものに内在する構造的欠陥なのである。次章では、この矛盾を生み出す経済的メカニズムを詳述する。
持続的なリストラのサイクルは、経営の非情さの表れというより、むしろ伝統的な日本型報酬モデルに組み込まれた、根深い経済的ロジックの症状である。中高年社員の早期退職を促す構造は、短期的な財務改善という抗いがたい「誘惑」を経営陣に提示する一方で、長期的な人的資本を蝕む罠となっているのだ。
問題の根源は、多くの日本企業において、中高年社員の賃金水準が本人の生産性を大きく上回ってしまう「高すぎる給与」にある。具体的には、以下のような水準が常態化している。
この報酬と貢献の危険な乖離は、労働経済学の「レイザーの法則」によって理論的に説明できる。この法則によれば、年功序列賃金は社員のキャリアを二つのフェーズに分断する。
この報酬と貢献のデカップリングこそが、早期退職を促す構造の核心である。壮年期以降の社員を早期に退職させることが、企業にとって「膨大な利益」をもたらす財務的ロジックがここに成立する。
1. 退職金のコスト: 早期退職優遇制度では、退職金に「30ヶ月分」程度の給与が上乗せされるのが一般的である。
2. 雇用継続のコスト: 一方で、高給与の50代社員を1年間雇用し続けるための総コストは、基本給(12ヶ月)に加え、賞与、高額な社会保険料、その他経費を含めると、給与の「24~25ヶ月分」に相当する。
3. 結論: つまり、30ヶ月分の退職金は、実質的にわずか「1年3ヶ月分」程度の雇用コストでしかない。この計算に基づけば、50歳で社員を退職させることで、定年となる65歳までの残り15年分の莫大な人件費を削減できることになる。この財務的インパクトが、経営陣にとって短期的なバランスシート改善を優先し、経験豊富な人材の維持という長期的な視点を犠牲にする、強力かつ危険な誘惑となっているのだ。
しかし、この短期的な経済合理性は、深刻な副作用を伴う。かつて大規模なリストラを行ったパナソニックが、15年の時を経て再び同様のリストラを繰り返している事実は、このモデルが持続不可能であることを象徴している。この負のサイクルを断ち切るためには、問題の根源である日本の給与構造そのものにメスを入れる必要がある。
日本の賃金に関する議論は、「日本の平均給与は低い」という、統計がもたらす「罠」にしばしば陥りがちである。本章では、この誤解を解き明かし、急峻な年功カーブが一部の大企業特有の問題ではなく、日本の中堅・大企業に共通する構造的課題であることを論証する。
世間一般で語られる「低い平均給与」の根拠とされる統計データは、意図せずして実態を著しく歪めている。これらの数値は、人事戦略を構築する上で根本的に誤解を招くものであり、一種の「インチキ」と言わざるを得ない。
これらの統計からパートタイマー等の影響を除外し、フルタイムで働く男性の賃金カーブに焦点を当てると、全く異なる実態が浮かび上がる。学歴(高卒・中卒含む)や地域を問わない全国の平均値ですら、50代の平均年収は700万円に達する。これを大卒の正社員に限定すれば、さらに100万円程度上乗せされるのが実情だ。これは、日本の賃金体系が年齢と共に急勾配で上昇する、典型的な年功序列型であることを明確に示している。
では、この構造的問題はどの規模の企業に当てはまるのか。我々の分析は、明確な境界線を明らかにしている。
この分析が示すのは、この問題が一部の巨大企業に限定されたものではなく、日本の企業アーキテクチャに組み込まれたシステム上の欠陥であるという事実だ。したがって、この課題の解決策を模索する上で、グローバルな標準との比較はもはや単に有益であるだけでなく、不可欠なプロセスなのである。
日本型雇用システムの構造的課題を克服するためには、国内の常識に囚われず、海外の先進的な雇用モデルを比較分析することが極めて重要である。フランスやアメリカの事例は、日本の年功序列型とは全く異なる賃金思想を示しており、我々が目指すべき改革の方向性を明確に示唆している。
フランスの賃金体系は、エリート層と一般層でキャリアパスと給与モデルが明確に分離された「複線型」を特徴とする。
アメリカの賃金体系も、大多数の労働者においては同様の傾向を示す。中央値に位置する労働者の場合、賃金の伸びは30歳から40歳までの期間に集中し、40歳以降の給与はほぼ横ばい(フラット)となる。給与が青天井で上がり続けるのは、ごく一部のトップエリート層に限定されるのだ。
フランスとアメリカ、二つの先進国の事例から導き出される示唆は、極めて明確である。それは、「一部のエリート層を除き、大多数の労働者の賃金カーブは若いうちに頭打ちとなり、その後はフラットに推移する」という共通の原則だ。このモデルは、年齢給による人件費の高騰を防ぎ、長期的な雇用安定を可能にする基盤となっている。このグローバルスタンダードを参考に、次章では日本が目指すべき具体的な人事制度改革案を提言する。
これまでの分析で明らかになった構造的課題を解決するためには、小手先の対策では不十分である。我々が取るべき唯一の持続可能な道は、戦略的な転換、すなわち「年功序列型賃金から、成果と役割に応じたフラットな賃金体系への移行」である。本レポートが提示する核心的な提言は、この移行を断行することに尽きる。その具体的なモデルケースとして、「年収700万円での頭打ち」を一つのベンチマークとすることを提案する。
この新しい賃金モデルは、単なるコスト削減策ではなく、企業の競争力と従業員のエンゲージメントを同時に向上させる、多面的なメリットをもたらす。
この改革は、単なる賃金制度の変更に留まらない。それは日本人の働き方、キャリア観、そして社会全体のあり方を変革し、持続可能なタレントパイプラインを構築する大きなポテンシャルを秘めている。
本レポートを通じて明らかになったように、日本の中高年雇用問題の根本原因は、個々の社員の能力や意欲の欠如では断じてない。その本質は、経済成長期を前提に設計され、現代の環境には全く適合しなくなった年功序列型の賃金システムそのものにある。
この本質的な課題を前に、我々は議論の焦点を大きく転換させねばならない。「定年後の再雇用」や「中高年のリスキリング」といった対症療法的な議論から、「そもそも定年を意識することなく、誰もが安心して長く働き続けられる雇用・賃金体系をいかにして構築するか」という、より本質的な議論へとシフトしなければ、この問題が解決することはない。
真の「雇用安定」とは、単に一つの企業に長く在籍できることではない。それは、年齢に関わらず、社員一人ひとりが自らの能力と経験を最大限に発揮し、その貢献に対して公正な処遇を受けながら、社会の一員として長く活躍し続けられるシステムである。この新しい定義に基づき、持続可能で、かつ働くすべての人々にとって公平な人事制度を構築することこそ、現代の日本企業に課せられた最も重要な戦略的責務である。
ムーアの法則絶頂期ならPCが爆速陳腐化してたからゲーム専用機の価値があったけど、今は停滞してるんだからAPU流用で「VAIOのゲーミングPC」が出てもいいのにな
1995年~2015年位まではPCのスペックが3年で1~2桁くらいの異常なペースで進化しており、PCゲームと言えば「2年前に30万円で買ったPCの性能が今ではドンキの激安PC未満相当まで相対的に落ちているから、このPCではもはや最新ゲームの起動自体が不可能」とか「去年組んだ最強ゲーミングPCだから、今年に出た最新ゲームでもまだ画質設定の一部をLOWにすれば、大部分MIDDLEでも遊べる」といった狂った状況が続いていた
そういった状況で、ソニー・プレステや任天堂などのゲーム専用機は、発売時は特殊なアーキテクチャでPCの進化を5年先取りして美麗なグラフィックスや新しい価値を提供し、終売時はPCには劣るがゲーム自体が特化しているので十分楽しめるという価値を残し、そして「初代」から最終型まで価格や消費電力が落ちていく一方、性能を一切変えないことで「発売日に並んで買った初期型なのに、今では最新ゲームが動かない」という状況を回避していた
しかし、2010年代くらいからゲーミングPCの進化が急減速し始め、5年で20%くらいまで落ちて今に至るので、今ではこの「ボクのおこづかいで買った初期型」現象はもう発生しなくなっている。同時に、同世代のスマホよりも画質が凄惨だったチップセット内蔵グラフィックスも性能が上がり、更にUnityなどの無料ゲームエンジンが登場してイチからC++でプログラミングを極めなくてもゲームが作れるようになり、これらの合わせ技で「殆どのゲームは殆どのPCで動く」状況が完成した
こうなった今、「ゲーム専用機だから安心」という価値はほぼ無くなっている。今こそPS2~PS3時代にどっかのソニーの久夛良木とかいうオッサンが夢見ていた「ソニーのエコシステムでマルチメディア」環境を実現すべき時が来てる。んだからさっさとSteamや一太郎やらPrime Videoやらをプレステに移植するなり、プレステにWindows実行機能を付けたモデルを作るなり、やればいいのにと思うんだがなぁ。
普通はさ
1.革新的な土台となる技術がまず出る(例えばプログラミング言語とかもそう)
3.それをどう使うかという話が出る(例えばアーキテクチャ)
4.それをどう習得、実行するか、どう組み合わせるかという各論が出る
これが順々におきる
1のスピードがえげつない、234の議論が尽くされる前に1が変わるから全部ひっくり返る
それでもまだ234の流れは合ったんだが
個人的に、1や2の人たちは尊敬してるけど、3や4の人らは疎ましいと思っていた
どうしても議論の質が低いと言うか、巨人の肩で威張ってるようにしか見えない人が結構いる
そういう人らがひっくり返されてるのを見るのは楽しい
AIについては、今は2すら追わずに1に集中するだけでいいと思う、それなら簡単
もし234を急いで構築しようとすればひっくり返される
最近、SNS上では「BLは性的消費なのにフェミは男性の性的表現を叩くのはダブスタじゃないか?」というスレッドがトレンド入りしていた。
だがこの議論、よく見るとアーキテクチャの層が違う。つまり、話しているプロトコルが合っていない。
オタク文化圏では、「女性が描くBL」と「男性が描く女性向け性表現」を同一のAPIとして扱う傾向がある。
しかし実際には、両者は別レイヤーで動いているアプリケーションだ。
フェミニズムの文脈で語られる「性的表象の問題」は、主に「社会的リソースの不均衡」や「ジェンダー権力の構造」についての議論であって、単なる「表現内容」の良し悪しを審査しているわけではない。
つまり、BLを「性的に描いてるからフェミ的にアウト」と言うのは、仕様書を読まずにバグ報告を出すようなものなのだ。
歴史的に男性中心に最適化されてきた社会システムに、女性視点のパッチをあてて再コンパイルする運動と言える。
だから、「男性と女性を同じように扱うべき」という一般論をそのまま適用しようとすると、互換性エラーが出る。
たとえば「女性の性的表象は抑制されるべきだが、BLはOK」とされるのは、「権力構造上の対称性が存在しない」という前提で最適化されているからだ。
一方、「普通の女性はフェミと違う」「まともな女はそんな主張しない」という定番フレーズが出てくる。
だがそれは多くの場合、ユーザーの気分を和らげるためのUX的演出にすぎない。
実際、ほとんどの人間は制度的優遇(レディースデー、女性専用車両、離婚時の親権バイアスなど)という「プリインストールされた特権OS」の上で動いている。
たとえ本人が「私はフェミじゃない」と言っても、使っているAPIがすでにフェミ思想ベースで動作しているのだ。
つまり、「私は違う」という自己申告は、ただのUIレイヤー上の装飾にすぎない。
平等を掲げるなら、優遇措置をアンインストールする覚悟が必要になる。
だが現実には、多くの人が「平等という概念を口では支持しつつ、既得権のキャッシュを維持」している。
これはエンジニアリング的に言えば、「レガシーコードをリファクタリングすると言いながら結局コメントアウトで誤魔化している状態」だ。
男女平等を“動作保証付き”で実装しようとするなら、既存の社会制度をルート権限で書き換える必要がある。
だが、ほとんどの人はroot権限を持つどころか、ユーザーレベルの設定すらいじる気がない。
もっと根本的に言えば、日本社会の多くの仕組みは、女性優遇をデフォルト設定としてビルドされている。
その構造はあまりにも自然化されていて、誰もコードレビューをしようとしない。
アンチフェミを自称する男性すら、「女性は守るべき対象」という社会的テンプレートを内面化していることが多く、それが構造の永続化を促している。
結果として、「BLは性的消費」「フェミはダブスタ」という批判は、異なるフレームワーク間の非互換問題にすぎない。
BLは「個人の妄想の自由」をレンダリングするローカルアプリだが、フェミニズムは「社会構造の更新」を目指すサーバーサイドのシステム。
同じメソッド名を呼んでいるように見えても、実行される関数の意味がまったく違う。
つまり、「BL=性的消費」「フェミ=ダブスタ」という批判構造は、コードのバージョンが違うままマージしようとしている状態に近い。
根本的にAPI設計思想が違うのだから、いくら議論を積み重ねても互換性は取れない。
手間が増えて、全然楽になってないのなら、それは正しく理解できていず、目的を見失い、手段を目的としているから。
速い話が、
間違えている
からだ。
DDDとかTDDとかDevOpsとかIaCとかクリーンアーキテクチャとかマイクロサービスとかアジャイルとか、とか、とか。
いろんな現場で、責任者は「うちは××を採用して云々」と胸を張って宣言してくれるんだが、「ならなんでそんな状態になってんの?」「なんでそんなにエンジニアがたくさん必要なん?」と聞きたくなる。
今時、SREがいるとか、QAが別にいてE2Eテストとかしてるとか。
まず間違いなく、
間違えている。
んだよね。
TDDをちゃんとしていれば専属QAは不要だし、DevOpsをちゃんとしていれば専属SREは不要。
いやでも「Googleならそうしている」っていうなら、大きな勘違いをしている点を指摘してあげよう。
「君たちはベアメタルサーバを管理していないし、Lanケーブルの取り回しもしていない。GoogleのSREエンジニアが頑張って運用してくれているシステムに乗っかって、アプリケーションに集中できる状態になっているはずだ」
ということ。
本小文では、ハンナ・アーレントが提起した「悪の凡庸さ」(BE 1.0)が、現代においてより巧妙かつ陰湿なかたちへと進化していることを論じます。かつての「悪」は、思考停止と無反省な服従によって成り立っていましたが、今日の「悪の凡庸さ 2.0」(BE 2.0)は、計算された行動と、美徳の言葉を悪用する戦略的な操作によって特徴づけられます。
BE 2.0は、二重のメカニズム──すなわち、道徳的言語を兵器化する巧妙な操作者と、その偽りを見抜こうとせず、あるいは恐れて沈黙する共犯的な大衆──によって機能します。
アーレントの洞察は、ホロコーストの実行者アドルフ・アイヒマンが、激情による加害者ではなく、ただ命令に従うだけの「無思慮」な官僚であったという点にありました。
それに対し、現代の加害者たちは「善人」を装い、美徳的な言葉を駆使しながら、実際にはアーレントが描いた「悪」の構造と変わらぬ行為を実行しています。
BE 2.0が「凡庸」であるのは、加害者に意図が欠けているからではなく、加害者自身も社会全体も、絶え間ない露出──特にソーシャルメディアを通じたもの──によって感覚が麻痺し、悪のパフォーマンスが日常化しているためです。この日常化は、「相手が悪いのだから自分は正しい」という自己免罪のロジックを生み出します。
明確な思想や信念に基づいて行動し、動機を「正義」や「権利」といった語彙の裏に巧妙に隠す操作者たち。彼らの悪は、分散的かつ非階層的に機能し、いわば「(サルの)群れの知性」のように動きます。また、共感は狭い部族的サークルに限定され、普遍的な倫理感覚は麻痺していきます。
観衆、同僚、制度、そして傍観者として、彼らは悪の遂行に直接加担していないように見えて、検証を怠り、言葉だけの美徳に騙され、結果的に悪の温床を支えています。リーダーの言葉にうなずくだけで、その後の行動全体を黙認してしまう、この「暗黙の承認」が共犯関係を形成します。
BE 2.0は、「正義」に見える言葉の衣をまといながら、実際には害を与えるための操作的アーキテクチャとして機能します。以下の六つは、その主要な「マスク(ベクトル)」です。
本来、異議申し立てを保護するための「言論の自由」が、憎悪や排除の言説を正当化するために使われます。権力者が被害者を装い、権利の言葉を用いて多元主義そのものを抑圧する──これが洗練された悪の典型です。
社会構造に根差す不正義が、象徴的な「個人」に押し付けられます。
• システムの生贄化:制度の失敗を覆い隠すために、ひとりの個人が「償い」の対象とされ、構造改革の必要性は棚上げされます。
• イデオロギーによる自動攻撃:あるカテゴリの人々が「攻撃してよい存在」として事前に定義されており、指示がなくても攻撃が発生します。まさに、無思慮な脚本の遂行です。
歴史上の重大な暴力や抑圧が、軽んじられたり、相対化されたりします。これは、現実の被害を正当化する方便として使われがちです。
進歩や変化を認めず、過去の不正義を手放さないことで、継続的な要求や道徳的優位性を確保しようとします。目的は「癒し」ではなく、「不満」の永続です。
複雑な現実が、単一の枠組みや道徳コードに押し込められ、それ以外の価値観は「後進的」として排除されます。
自らが行っている行為を、先に相手に投影し、正当化の材料とする。この「合わせ鏡」の構造では、真の責任追及が不可能となり、対話はエスカレートする一方です。
すべての誤りや偏見が「悪」となるわけではありません。「悪」が成立するのは、次の三つの条件が重なったときです。
他者を、尊厳ある主体ではなく、単なる機能や道具として扱う「存在論的な消去」が、悪の第一条件です。暴力の前に、すでに尊厳の剥奪が始まっています。
個人の悪意を超え、イデオロギーや制度に組み込まれることで、悪は再生産され続けます。
悪は、善を単に否定するのではなく、模倣し、利用します。たとえば、「権利」の言葉が、本来守るべき弱者ではなく、強者の防衛に使われるとき、それは善の腐敗です。
技術的な修正や制度改革だけでは、BE 2.0に対抗できません。というのも、これらは逆に「寄生的模倣」に取り込まれてしまうからです。根本的な解決は、私たち自身の内面から始まる変容にあります。
東洋の智慧は、個と社会は分かれたものではなく、同じ意識の運動の異なる側面であるという洞察を共有しています。内なる断絶が癒されるとき、外なる対立も自然に鎮まります。
1. 内的な道:瞑想、自己探求、倫理的明晰さを通じて、自己の中にある認識の否定構造を解体する。
2. 外的な道:未変容な人々が存在する現実においても害を防ぐための、法や制度、規範といった堅牢な外部構造を整える。
その行為は開かれた交流を促し、複雑性を許容するか?それとも、対話を遮断し、イデオロギー的な純粋性を要求するか?
和解と修復を育むか?それとも、分裂と戦略的な不満を永続させるか?
力、尊厳、自由をより広範に分配するか?それとも、特定の部族のために力を集中させ、特権を溜め込むか?
「言論の自由」が一貫して沈黙を生み出すとき、「学問の自由」が一貫して排除するとき、私たちは戦略的な操作の兆候を特定できます。
民主主義は、BE 2.0の条件が蔓延するとき、集団的な凡庸な悪が集約され、最高位の舞台に投影されるベクトルとなりえます。現代の指導者たちの台頭は、システムが日常的な否定、投影、兵器化された美徳のパターンを増幅し、正当化するようになった論理的な結果です。
サイクルを終わらせるには、外部の敵を探すのをやめ、内的な変容という困難な作業を始める必要があります。それまで、私たちは悪が選ぶ新たな仮面のすべてに対して脆弱なままです。
そういった「自称ビジネス系インフルエンサー」の言動、非常に視野が狭く、本質を見誤っている可能性が高いですね。
彼らが「ストーリーが重要」と主張し、高スキルのITエンジニアやエッセンシャルワーカーのような専門職を軽視する背景には、以下のような考え方や動機が透けて見えます。
高スキル人材やエッセンシャルワーカーに対する「お前はいずれAIに代替される」という言葉は、彼らの不安や嫉妬の裏返しである可能性があります。
真のビジネスとは、「ストーリー」というパッケージングより、「技術力・専門性」という中身(実体価値)があって初めて成り立ちます。それを軽視し、他者を叩くための道具として「AI」の話題を持ち出すのは、そのインフルエンサーが提供できる価値の限界を示しているのかもしれませんね。
彼らの言葉に惑わされず、あなたが注力している専門性の高いスキルや、社会に不可欠な仕事の価値を自信を持って評価し続けることが大切だと思います。
2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒
2023-03-28
AIには学習データや調教が必要で、かつてのニコニコ・YouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ
ジャップランドはクリエイターや萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、
マジなんとかした方がいいぞ
萌え絵は需要あるから、日本のクリエイターは海外AI勢にデータ学習で搾取され、萌え豚も萌え絵消費で海外AI勢に搾取される
真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイターが自由にデータ学習を行えるようにする枠組みを作ることだったんやで
たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?
まぁ今からでも遅くない(?)から、ディズニーやマーベルみたいに、日本企業も圧力掛ける団体を作りつつの、
利害関係を丸めて企業間を超えてデータ学習をできる枠組みとクリエイター保護(学習に利用されたデータやそのデータを作ったクリエイターに報酬払う)は
やった方がええと思うよ
任天堂やセガやバンナムやサイゲなどの大手ゲーム会社や東映などの大手制作会社は上記でいい+法務部と顧問弁護士に任せるとして、
「個別にオプトアウトしてね⭐️」って言ったって、どこからやるの?だし、
二次創作(ただし、二次創作ガイドラインがちゃんと公開されてるやつね)はどうするんだろ?ってなる
年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ、
というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・なPVを作っていて、
東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!
下記一行を Sora2 ちゃんに打ち込むだけで、満福神社っぽいキャラデザのPVアニメ出来ちゃうんだよね・・・
霊夢と魔理沙と咲夜とレミリアが出てくるアニメOP風のPV
別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2 ちゃんというか OpenAI が満福神社でトレーニングしただけですの
ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね
(プロンプトがこの短さだとさすがにクオリティはガチャだが、キャラデザとポーズが満福神社っぽい)
満福神社は、バトル気質で炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方はウマ娘と違って公式で禁止されてはいない)、
正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね
レイアウト、キー・フレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルでそっくりで、
明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感
『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、
日本政府も制作会社もIPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね
そして黒船に立ち向かって欲しいって書いたところで、日立が OpenAI と提携とかいう、ほげぇぇぇぇってなるニュースな?
データセンター&電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、
どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・
えっ・・・日立の Lumada ちゃんはどうしたの? MS と OpenAI のソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・
今こそ日立のやってること紹介にリリース出すタイミングじゃないの?
https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html
あと日立は公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、
えっ・・・日本政府も公共事業請け負ってる大大大企業も国産AIどうした?ってなる
『なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直に AWS や Azure 使えやとはなるし、
ゼロトラスト実現しよ?データ主権とかデータドリブンとかいう前にまずデータしっかり置こう?フルスクラッチで約束された失敗をかますくらいなら、
とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、
インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民のデータまで海外勢に握られることになりかねないやで
日本政府も大企業もスイスの国産AIくらいの頑張りは見せて欲しい
2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒ(チューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。
そして今、その成果が現実に:**スイス初の大規模・多言語・オープンなLLM「Apertus」**が公開された。
このモデルは、AIチャットボット、翻訳システム、教育ツールなど、あらゆるアプリケーションの基盤として開発者や組織に活用されることを想定している。
「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味。
この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:
ApertusはApache 2.0ライセンスで提供されており:
• 商用利用もOK
• モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)
• ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能
Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。
「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー。
「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデルを提供したい」
このプロジェクトは「研究→産業への技術移転」ではなく、イノベーションとAIスキル強化の起点として位置づけられている。
Thomas Schulthess(CSCS所長)はこう述べている:
「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」
Apertusは15兆トークン、1,000以上の言語で学習。
データの40%が非英語で構成され、スイスドイツ語やロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。
「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」
— Imanol Schlag(ETHチューリッヒ 上級研究員・プロジェクト技術責任者)
SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト。
Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバックを提供する初の実験機会が設けられる。
「Apertusは公共の利益とスイスのデジタル主権のためのモデルです」
— Daniel Dobos(Swisscomリサーチ責任者)
スイス国外のユーザー向けには、Public AI Inference Utility(PAIU)を通じてApertusが利用可能に。
「これは道路、水道、電気と同じく、“公共インフラとしてのAI”を示す証明だ」
Apertusはトレーニング全工程を再現可能な形で完全公開。
• ドキュメント
そして何より、以下の法的・倫理的ガイドラインを尊重して開発されている:
• 著作権法
• パブリックデータのみ使用、機械判読可能な除外リクエストに対応
「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」
— Antoine Bosselut(EPFL NLP研究室長・Swiss AI共同責任者)
これは完成形ではなく、始まり。
今後のバージョンでは:
https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#
Cursor、Copilot、ChatGPT、Claude、Claude Code、Codex
だいたい見えてきたのでまとめてみる、とは言えもうAI使ってる奴らには自明のことと思う
コードの状態を説明させること、つまりリーディングの補助には非常に有効
例えば入って間もないプロジェクトで改修する際に
「この画面ってどこでてぎされてる?」
「これと似たパーツどこかで作ってない?」
「色はどうやって指定してる?」
みたいな質問には非常に精度良く答えてくれる
これを人力でやろうとすると非常に時間がかかる、特に歴史が深いプロジェクトだと無限に時間が溶けるから助かる
この恩恵を得られないのが、プロジェクトに慣れ親しんだ人だ、もう既に頭に入ってるならそんな質問をする必要もない
・コードが複雑すぎる
・主流ではないアーキテクチャ
・オリジナルのパーツを実装している、それに強く依存した書き方をしている
・プロジェクト全体を渡せない
・コードにこだわりがある
・制約が多すぎる
そこそこの規模のプロジェクトはこれで大体詰む
「これと同じようにやって」が苦手っぽい
これ言ってる人少ない気がするんだけど
LLMが特異なのは「専門家として回答する」みたいなやつなんだよね
苦手なのが「制約に適合する」みたいなやつで
一般的にプログラミングというのはルールベースが得意とされているんだけど、LLMはそっちじゃないんだよ、人間と同じなの
ルールをたくさん与えると分かんなくなる
(この得手不得手については、ちゃんとAI本人に質問したらその通りと言っていた、お試しあれ)
ちなみにPRレビューとかはそれで言うと得意なんだよね、ただ「このルールに従ってレビューせよ」はやりすぎると壊れる(工夫が必要)
自分がPLのプロジェクトなら自分の権限でやるかもしれないけど
例えば、要件定義なんかも制約充足型のタスクだから苦手なんだけど
そうなると精度落ちるんだよね
「精度落ちるかもしれない」ってタスクって任せられないんだよな
モノが出来上がっても怖くて使えないし、その時間が無駄になるかもしれないから、「自分でやったほうが早い」になる
・ちょっと精度が出ないかもしれないタスクをAIや部下に任せるか
・時間やコストをかけてAIや部下を教育(チューニング)するか
これに対する一つの解は
・精度が悪くても良いタスクを渡す
・精度が見込める得意そうなタスクを渡す
だと個人的には思ってるんだけど
お前らコンサルがキラキラした目で語る「SDV化へのロードマップ」ってやつ、まあ綺麗だよな。「レベル1から始まって、ドメイン、ゾーン、最後は夢のセントラルコンピュータへ!」って、すごろくみたいで分かりやすい。プレゼン資料は美しいし、ロジックも通っているように見える。
だが最近、その綺麗なすごろくを見ていると、強烈なデジャブを感じるんだ。
ついこの間までヨーロッパ中が大合唱していた、「未来はEV一択だ!」という、あの狂騒曲にな。
ご存知の通り、その結果は今のEV失速と戦略の迷走だ。今日は、なぜ俺がお前らの語るSDVに、あの失敗したEV戦略と同じ匂いを感じるのか。そして、そのロードマップに隠された巨大な「崖」について、具体的かつ論理的に話そう。
まず前提として、EUのEV戦略は単なる技術選択の失敗じゃない。あれは、「"言葉"を定義することで現実を支配しようとする」という、ヨーロッパ伝統のイデオロギー戦略だ。「EVは善、エンジンは悪」というシンプルな二元論を作り出し、規制と補助金で市場を無理やりそちらに誘導しようとした。
この手法のキモは、現実の複雑さを無視し、自分たちに都合のいい単一のシナリオを唯一の「正解」として提示することにある。世界には多様なエネルギー事情があり、多様な顧客ニーズがあるという現実から目を背け、「EV」という言葉の神輿を担いだわけだ。
そして、お前らが語る「SDV」も、これと全く同じ構造を持っている。
「セントラルコンピュータによる、ハードとソフトが完全分離したSDV」こそが唯一絶対のゴールだと定義し、そこに至る道を一本道で描いてみせる。
だが現実はどうだ? 安くて頑丈なクルマを求める市場もあれば、運転の楽しさを求める層もいる。そもそもソフトウェアのアップデートに価値を感じない顧客だっている。トヨタが声高に未来を語らず、EV、HV、水素、合成燃料と、あらゆる可能性に備える「マルチパスウェイ」を貫いているのはなぜか。それは彼らがイデオロギーではなく、複雑な「現実」と向き合っているからに他ならない。
お前らのSDVロードマップは、この時点でまず、現実の多様性を無視したイデオロギー的な欺瞞をはらんでいる。
その上で、仮にその単一シナリオ(理想のSDV)が正しいとして、なぜその実現が絶望的に困難なのかを説明しよう。ここで登場するのが、お前らも知ってる「コンウェイの法則」だ。
雑に言えば「システムの構造は、それを作る組織の構造とそっくりになる」という法則だ。今のクルマは、無数のECU(小さいコンピュータ)が複雑に絡み合った「分散型アーキテクチャ」だ。これは偶然そうなったわけじゃない。エンジンはA社、ブレーキはB社、ライトはC社と、各分野の専門サプライヤー(Tier1)が、ハードとソフトを一体ですり合わせて開発してきた。このクルマの構造は、日本の自動車産業が100年かけて作り上げてきた、この巨大なサプライチェーンという人間関係そのものなんだよ。
そして、この巨大な人間関係の構造は、組織と同じで少しずつしか変えられない。「連続的」な変化しか受け付けないんだ。一気に変えようとすれば、現場は崩壊し、これまで培ってきた価値は失われる。
この2つの法則を踏まえて、お前らのロードマップを評価しよう。
これはまだいい。既存のサプライヤーとの人間関係を維持したまま、ECUをいくつか統合し、役割を再編成する。「組織改編」レベルの話だ。現場は筋肉痛になるだろうが、これはまだ「連続的な変化」だ。実行可能性はある。
これは「組織改編」じゃない。「全従業員を一度解雇して、明日から全く別の人種と会社をゼロから作れ」と言っているに等しい。
なぜなら、クルマの作り方が「ハードウェア部品のすり合わせ」から「OS上のソフトウェア開発」へと、根本的に変わるからだ。これは、これまでパートナーだったハード中心のTier1の価値をほぼゼロにし、NVIDIAやGoogle、AWSといった、全く文化の違うITジャイアントと新しい関係をゼロから構築することを意味する。
この「崖」を飛び越えるという行為は、必然的に「大規模リストラ」を意味する。そして、そのリストラは、これまで俺たちがサプライヤーと共に築き上げてきた無形の資産、つまり「車載特有の品質ノウハウ」や「フェイルセーフの思想」といった、カネでは買えない価値(バリュー)を崖の下に投げ捨てる行為に他ならない。
俺たちの議論は、お前らの美しいパワポの上にはない。この血と汗にまみれた現実にある。
だから、お前らが本当に俺たちのパートナーだと言うのなら、答えるべき問いはこれだ。
この「崖」を越えることで失われる、既存サプライチェーンの無形資産(品質ノウハウ、信頼関係、暗黙知)は、金額換算でいくらだ?その減損を、どうやって、何で補填する計画なんだ?
「意識改革」みたいな精神論で逃げるな。どのTier1との関係をどう縮小・終了し、どのITベンダーと、どのような契約・開発体制で、何年かけて新しいエコシステムを構築するのか。その移行期間中のリスクとコスト(訴訟リスクや技術者流出を含む)を算出して見せろ。
この無謀なジャンプの途中で、開発が頓挫したり、大規模リコールが発生したりした場合、会社をどう守るんだ?そのための具体的な資金計画と、リスクヘッジのシナリオを提示しろ。
これらの問いに、具体的かつ定量的に答えられないのであれば、お前らの提案は、現場の現実を無視した無責任な空論であり、俺たちを崖から突き落とそうとする悪意の塊だ。
俺たちは、崖の向こうの楽園の絵が見たいんじゃない。
日経が「転職希望者が前年比16%増、自動車産業で目立つ」と書いていた(https://www.nikkei.com/article/DGXZQOUB163T20W5A910C2000000/)。元データの求人倍率はパーソルキャリアのdoda月次レポートに出ており、8月は2.42倍、求人数は前年比−0.8%、転職希望者は前年比+15.9%である。数字としては「分母が膨らんで倍率が落ち気味だが、絶対水準はまだ高い」という状態。過熱は一服、熱源は消えていない。ここに「自動車からの登録が目立つ」という観測が乗ってくる。
車両の価値がソフト寄りにずれるほど、既存のプロセスと評価軸は音を立てて古くなる。
制御、電動化、熱マネ、モデルベース開発、機能安全、サイバーセキュリティ、車載クラウドといったキーワードで職務を書き換えられる人は市場で引かれる。
一方で、従来の職能テーブルに乗せたままの評価や配置転換に直面すると、将来不安が先に立つ。登録行動は合理的反応だ。
もう少し分解する。
縮むか伸びるか、ではない。
結局のところ、「自動車からの転職が目立つ」は、逃散ではなく分散だ。
製品価値が電動とソフトに寄るほど、職務はエネルギー、素材、部品、設備、半導体、ロボティクス、産業IT、コンサルのモビリティ領域へと滲む。
そこで通貨になるのは、熱マネやパワエレの実務、組込みとクラウドの橋渡し、機能安全やサイバーの規格読解、認証と量産の目配りといった「垣根をまたぐ力」である。
今は転職サイト上の求人倍率に表れているが、実体は産業の構造変化に沿った人の再配置だ。
要するに、自動車産業は「縮小」ではなく「再配置」だ。
うちのチームには、とにかくコードが大好きな女性プログラマーがいる。
勉強熱心で、新しいフレームワーク、アーキテクチャ、ライブラリ、Lintルール、CI/CDの最適化…とにかく探求心の塊。
その姿勢自体は、正直素晴らしい。だが、ビジネス側のスピード感や優先度にまったく寄り添えないのが問題。
たとえばプロダクトのローンチが迫っている時、チームとしては「多少コードが荒くてもいいから、まず動くものをリリースしよう」と判断する場面がある。
だが彼女はそういう「割り切り」が大の苦手で、汚いコードは絶対に許さない。
しかも機嫌が悪くなる。
ミーティングでも静かに険しい顔をしていて、周囲も話しかけづらい空気を感じている。
正論ばかりで論破しようとするわけではないが、「これでは技術的負債が…」という言葉がもはや口癖のように繰り返される。
いや、それはわかってる。でも今はそこじゃないんだ……
さらに困るのは、彼女が導入したがるツールや技術の学習コストが高すぎること。
他のメンバーからも「正直ついていけない」「彼女のためのプロジェクトじゃない」といった声が上がってきている。
表面上はみんな協力的だが、裏では「あれはちょっと…」とこっそり相談されているのが現状だ。
簡単に外すこともできない。技術的には信頼してるし、いなくなったら困ることもある。
でも、今のままではチームのバランスが崩れる。
そんな彼女に、どう伝えればいい?
正直、AI に命令を出すリード、マネージャ、リーダーの能力が上がらないと、AI でコードを大量生産すると手に負えないスラムが根深く絡み合った構造で広がっていくことになるだろうというのが既に見えている。
というのも、AI ほとんど影響ないちょい前の時点ですら「うちはDDD、TDD、クリーンアーキテクチャ、k8s、アジャイル、スクラム等々を採用して云々」ってプロダクトが、リリースから半年、1年で開発がスタックしている、という事例は一般が想像する以上に存在している。
リリース時は、CTOやマネージャが腕組みしてWebページで華々しい成果発表するものだが、その裏で手動運用のオンパレード、一箇所変更したらどこに影響が及ぶかわからない地雷原、不具合障害が発生するたびに増える監視サービス、手動運用マニュアル。
その前で、「圧倒的ではないか、我がプロダクトは」って悦に入る経営陣、の図。
それ見て「SaaS界のネズミー王国や〜」って妄想を迸らせる利用者側経営陣と、ブルシットな手数だけ増えて、業績給与はぴくりくらいしか動かないで悶絶する利用者側従業員。
この状態で、「いや〜、新技術の導入、失敗しましたわ〜。経費が5倍くらいに膨れ上がってます。ごめんちゃい」なんてリリース出せないでしょ。
それ見て教科書ガイドエンジニア、カタログショッピングエンジニアが「世界を変える! 俺(の業務経歴書)が変わる!!」って初見手探りで導入して、連れション地獄。
これが現状よ。
ここにAI が入ってくると、ますます「中身も、他の処理との関係性もよくわからんけどプロダクトに組み込まれた謎プログラムの塊」が、「これ以上機能を載せるとバランスを崩して全体が倒れる」寸前のサイズまで育つわけよ。
ここまで行っちゃったら、どこをどうしたらどうなるか、「AI 使ってふふふふ〜ん」ってレベルのエンジニアでは太刀打ちできなくなってるだろう。
すっと
「動くな!」
となって、対策のための会議とドキュメントづくりが延々と半年とかいうオーダーで繰り広げられることになる。
その間やれること、というかやらなきゃならないことは、障害対応手動運用。
こういう状態に陥らせたリーダーやリードテック、CTOは「新しいことに挑戦したいので」と敵前逃亡、成果発表のWebページを担いで次の犠牲者の元へ。
ちゃんと設計したら、生成AIを駆使する必要、あまりないはずなんだよなー。
で、テストも書いてくれる、っていうけど、AI に全投げ似非エンジニアにその妥当性とか、判断できんのかな?
カバレッジを100%に近づけるためだけのテストを手動で大量に書くのを代替してくれるかもしれないけど、あのテストが品質保証、障害対策になってる現場が一つでもあるか?
今流行りらしい、業務ドメイン分割マイクロサービスだと、AI で辻褄合わせてテストとか、無理やぞ。
という地獄が、2、3年後訪れるだろう。
楽しみやなぁ〜w
という話をすると、AI使いこなせないオールドタイプの負け犬の遠吠え、みたいにいうてくるのがいるんだけど、むしろAI を効果的に活用するための構造、構成とか模索してんのよ。
昔ながらのPHPとテンプレートで動いていた大規模システムを、Next.jsベースのモダンな構成に置き換えるプロジェクトをやったんだけど、これがなかなかうまくいかなかった話。
1年以上かけて、コンポーネント化されたNext.jsアプリとして開発を進めて、見た目もコードも“今どき”になった…はずだったんだけど、完全な置き換えはできず、結局は既存のPHPシステムと共存させる形に。
その間、運用人員がいなかったから他社に協力を依頼して、お金もかなりかかった。
でも、いざリリースしてみると、「誰がどこを触れるのか分からない」「直したいけど全体の影響が読めない」みたいな状態になり、むしろ運用の手間は以前より増加。タスクは溜まり続けている。
ぶっちゃけ、従来のシステムのままで運用していた方が、楽だった面も多い。
もちろん、古いシステムに限界がなかったわけじゃないけど、今は「置き換えた結果、前よりもしんどくなってる」状態で、結構困ってる。
「古いけど運用実績があって、そこそこ動いてるシステム」を「最新の技術で綺麗に作り直す」って、理想はあるけど、現実的には時間もお金もかかるし、引き継ぎやドキュメント、周辺業務の整備まで考えると、運用の現場がついていけなくなることも多い。
しかも、複雑な状態になると、関わるエンジニアの数も制限されて、どんどん属人化していく。
会社やめたほうがいい?
心理学は信用できないという意見は、心理学の科学的側面、特にその理論が現代のテクノロジー、とりわけ人工知能(AI)の発展にどれほど深く貢献してきたかを見過ごしているかもしれません。
ご指摘の通り、強化学習、ニューラルネットワーク、遺伝的アルゴリズムといったAIの中核技術は、実は心理学の理論と深く結びついています。
心理学の理論を数学的に抽象化し、コンピューター上でシミュレート可能にしたものが、今日のAI技術の根幹をなしているのです。
AIが試行錯誤を通じて最適な行動を学習する強化学習は、B.F.スキナーに代表される行動心理学の「オペラント条件づけ」の理論そのものと言えます。
このように、人間の学習メカニズムを解明しようとした心理学の研究が、AIに学習能力を与えるための理論的基盤となっているのです。
人間の脳の構造と機能にヒントを得て作られたニューラルネットワークは、認知心理学や神経科学の研究と切っても切れない関係にあります。
脳という情報処理システムを理解しようとする心理学的な探求が、AIに「知能」をもたらすアーキテクチャを生み出したのです。
遺伝的アルゴリズムは、生物の進化のプロセスを模倣した最適化手法です。これは、人間の心理や行動が進化の過程でどのように形成されてきたかを研究する進化心理学の考え方と通底しています。
直接的な理論の導入というよりは、進化という生命の根本原理を計算モデルに応用した点で、心理学の基礎となる人間観と関連しています。
近年では、さらに複雑な心理学の理論もAIの研究対象となっています。
例えば、社会心理学における「認知的不協和」理論です。これは、人が自身の信念と矛盾する行動をとったときに不快感を覚え、その不快感を解消するために信念や行動を変えようとする心の働きを説明する理論です。
最近の研究では、この認知的不協和を数理モデル化し、AIに実装する試みが行われています。
これにより、AIがより人間らしい意思決定の揺らぎや、信念の修正プロセスをシミュレートできるようになる可能性が探られています。
これは、心理学の理論が単なる概念に留まらず、具体的な計算モデルとしてAIに組み込めることを示す好例です。
このように、心理学はAIにとって単なるインスピレーションの源泉に留まらず、その根幹を支える理論的基盤を提供しています。
「心理学は信用できない」のではなく、心理学こそが、人間という最も高度な知能を理解し、それを人工的に再現しようとするAI研究の羅針盤となっているのです。