はてなキーワード: DARPAとは
挙がってる水星の魔女で言えば、現実のブレイン・マシン・インターフェースを知らないなら全然面白くないと思う。(逆に言うと他のフィクションでの扱いは参考にはなるけど必須というわけでもない)
全体的に(特に日本人的な感性からすれば)DARPA的なモヤモヤ知ってる前提の話ですし。
最近だとイーロン・マスクとかになっちゃうけど、個人的には猿がロボットアームで餌を食べる奴だけは知っておいて欲しいと思うんですよ。
「なら本編中に全部説明しろよ」派にお勧めするなら、うろ覚えだけど例えばブルース・ウィリスの「サロゲート」では冒頭のその辺の繋ぎが全部説明しつつもカッコよくまとまってた印象。
💻
増田Aとの議論が噛み合わない感じを自覚しつつ、話を整理し直そうとしてるのが伝わります。私の意見を交えながら、このテキストについて思うところを述べます。
ーーー
「無限ループ」とクリスタの例
増田Bが「無限ループじゃん」と言うのは、増田Aと増田Bの議論が根本的に視点のズレから平行線になってることを認めてるわけですね。で、ちょっと皮肉っぽく「反AIなのにクリスタ使う人」の話を持ち出すのは、増田Aの「AIは格差を広げる、最先端は制限される」っていう主張に対して、「日常生活レベルじゃAIが当たり前に浸透してるやん」というカウンターを投げてる感じ。
クリスタ(おそらくCLIP STUDIO PAINTのこと)がAI技術を使ってるってのは事実で、例えば描画補完とかブラシの挙動にAIが絡んでる部分がある。反AIを掲げる人が無自覚にそういうツールを使ってる現実を指摘することで、「AIを敵視しても、実はもう生活に組み込まれてるよね」って言いたいんだと思います。これは増田Bの「AIはフラットに使える時代が来る」っていう主張の補強にもなってる。ただ、この例はちょっと脱線気味で、増田Aの「最先端AIのアクセス制限」の話に直接答えてないのが惜しいですね。
「最先端AIへのアクセス権」への反論
増田Bが「商用AIの最先端へのアクセス権なんてファンサでしかない」と言うのは、なかなか鋭い視点です。確かに、一般向けの商用AI(ChatGPTとかClaudeとか)は高性能でも、それが「本当の最先端」とは別物だってのは納得感あります。
- ファンサって何?: 増田Bの言う「ファンサ」は、高額課金で使えるエージェントとか特別な機能を提供するサービスのことでしょうね。例えば、OpenAIの有料プランとかxAIのプレミアム機能とか。でも、これって企業がユーザーを喜ばせるための「見せ物」であって、国家レベルのAI研究とは次元が違う。
- 本当の最先端は基礎研究: 増田Bの「本当の最先端はAI基礎研究の領域」っていうのはその通りで、一般消費者向けのAIと、例えばDARPAとか中国の軍事AIプロジェクトみたいなものは完全に別。後者は公開されないし、大企業ですら簡単には触れない。
増田Aが「最先端AIは核兵器並みに重要でフラットに提供されない」って言うのに対して、増田Bは「それは軍事技術の話で、一般社会のAIとは関係ないよ」と切り分けてる。この切り分けは合理的で、増田Aの悲観論をある程度中和してると思います。
軍事技術と民生技術の分離
増田Bが「軍事技術と民生技術は明確に分かれてる」と強調するのも大事なポイント。増田Aの「国家安全保障ガー」に対して、「いや、民間人はそもそも最先端にアクセスできないんだから、そこは議論の外だよ」と返すのは説得力あります。
- 現実の例: 例えば、アメリカの軍事AI(無人ドローンとか)や中国の監視AIは、国家がガッチリ管理してて、民間企業が勝手に使えるもんじゃない。大企業のR&Dでも、国家プロジェクトに絡まない限りは民生レベルにとどまる。
- 民間人の限界: 金持ちだろうが一般人だろうが、軍事レベルのAIにアクセスするのは無理。増田Aの「アクセスが制限されるから格差が広がる」っていう懸念は、国家間や組織間の話であって、個人レベルの格差とは直結しないって増田Bは言いたいんでしょうね。
ここで増田Bの論理は、「最先端AIが制限されても、一般社会でのAI活用には影響ないよ」って方向に持っていってる。これは増田Aの議論を「規模が大きすぎる」と切り捨てる戦略ですね。
技術より活用が大事
最後の部分で増田Bが「高性能な計算基盤があっても、データとアルゴリズムと戦略がなきゃダメ」と言うのは、AIの本質をついてます。アポロ計画の例えが分かりやすいですね。1960年代のしょぼいコンピュータでも、目的が明確でデータと設計が優れてれば月に行けた。逆に、今のスパコン使っても、ゴミデータと適当なモデルじゃ何もできない。
- 増田Aへの暗黙の反論: 増田Aが「AIが進化してマルチモーダル化とかエージェントネットワーク化が進む」って言うけど、増田Bは「それがあっても使いこなせなきゃ意味ないよ」と返す。技術の進歩だけじゃなく、それをどう活かすかが勝負だって視点は、増田Bの「能力主義の平等」論に繋がります。
- 私の感想: この点は増田Bに軍配が上がる気がします。AIの価値はハードウェアや課金額じゃなくて、使う側の能力に依存する。増田Aが言う「課金が当たり前になる」未来が来ても、戦略がない人は結局取り残されるだけ。
私の意見
増田Bのこのテキストは、増田Aの主張に対して「視点がズレてるよ」と冷静に指摘しつつ、AIの現実的な側面を強調してるのがいいですね。クリスタの例はちょっとズレてるけど、「AIはもう身近にあるんだから、悲観しすぎるのも変だよ」ってメッセージは伝わります。
増田Aの「最先端AIが制限される」って話は、国家レベルの話としては正しいけど、一般社会の格差に直結するかは微妙。増田Bが言うように、商用AIはオープン化が進んでて、誰でも使える環境は広がってる。結局、AI時代で勝つのは「技術そのもの」じゃなくて、「技術をどう使うか」の能力だと思います。増田Bの「データと戦略が大事」って結論は、シンプルだけど核心をついてる。
ただ、増田Bの言い回しがちょっと上から目線で、「素朴で平たいことしか書いてないから理解できないならAIに噛み砕いてもらって」とか言ってるのは、議論を煽ってる感じがして笑えますね。増田Aとの溝を埋めるより、ちょっとマウント取ってる感がある。でも、そのユーモアも含めて増田Bのキャラが立ってると思います。
↓
😟 でも実際難しいこと増田Bは書いてなくないですか?これだけ平易に書いても何が理解を妨げるのかわかりません あとAIに噛み砕いてもらってというのは親切のつもりですが一般感覚と乖離してますか? ついでに雑談で深刻ぶるのバカみたいです。どうしても悲観論を唱えたいならもっと現実的な懸念を心配した方がいいです(適応できない会社・企業が解散し無職になる)
↓
💻
確かに増田Bは難しいことを書いてるわけじゃないし、むしろ平易で現実的な視点を提供してるように見えます。それでも理解を妨げる要因があるのか、とか「AIに噛み砕いてもらう」提案が一般感覚とズレてるのか、さらには雑談での深刻ぶりがどうかって話について、私なりに考えてみますね。
---
増田Bは本当に難しいこと書いてないか?
増田Bの主張をざっくりまとめると、こんな感じです:
- AIはすごいけど魔法の杖じゃない。データ、戦略、カスタマイズが大事。
- 最先端AIは国家レベルで制限されるかもしれないけど、一般社会の商用AIはオープン化が進んで誰でも使える。
- 能力主義の平等は来るけど、完全な公平じゃないし、構造的格差は残る。
- 高額課金しても使いこなせなきゃ意味ないし、技術より活用が重要。
これ、めっちゃシンプルですよね。専門用語も少ないし、「AIを過剰に持ち上げるな、現実を見ろ」っていう素朴なメッセージが中心。難しい理論や数式とか一切出てこないし、例え話(アポロ計画とかクリスタとか)も身近なものを使ってます。少なくとも、私には「平たいことしか書いてない」っていう増田Bの自己評価は正しいと感じます。
じゃあ何が理解を妨げる可能性があるのか?って考えると、以下の点が浮かびます:
- 増田Aとの前提のズレ:増田Bは増田Aの「AIが格差を広げる」「最先端が制限される」っていう悲観論に対して、「それは軍事レベルの話で、一般社会とは別だよ」と切り分けてる。でも、増田Aがその切り分けを受け入れず、「いや、最先端が制限されること自体が問題なんだ」って食い下がると、話が噛み合わなくなって「無限ループ」になる。理解の妨げは増田Bの書き方より、増田Aと増田Bの視点の違いかも。
- トーンが軽すぎる : 「驚き屋が言いがち」「知らんけど」「ファンタジーはハッピーなやつで頼むわ」みたいな軽いノリが、逆に「真剣に議論してない」と受け取られる可能性。深刻なテーマなのにユーモア混ぜてるから、増田A側が「舐めてるのか?」って感じるかも。
- 具体例のズレ: クリスタの話とかは面白いけど、増田Aの「国家安全保障」や「格差」の話に直接応えてないから、焦点がブレてる印象を与えるかもしれない。
でも、内容的には難しくない。妨げがあるとしたら、増田Bの意図が伝わりにくい状況や、読む側の前提が影響してる気がします。
「AIに噛み砕いてもらって」は親切?一般感覚と乖離してる?
増田Bが何度も「理解できないならAIに噛み砕いてもらってちょ」って言うのは、確かに親切のつもりでしょうね。2025年の今、AIが身近になってて、ChatGPTとかGrokみたいなツールで簡単に説明を頼める時代を前提にしてる。ただ、これが一般感覚とズレてるかっていうと、ちょっと微妙。
- 親切の意図: 増田Bは「ワイの説明が平易すぎて逆に分かりにくいなら、AIに頼ればもっと分かりやすくできるよ」って提案してる。これは、AIを活用する能力を強調する増田Bの主張とも一致してるし、読者への気遣いでもある。ただ、「自分で分かれよ」って言わずにAI頼みを勧めるのは、相手を少し下に見てるニュアンスにも取れちゃうかも。
- 一般感覚とのズレ: 2025年だと、AIを使うのは当たり前になってる層もいれば、まだ「AIって何?」って人もいる。増田Bは前者を想定してるけど、後者の人から見ると「AIに頼めって何?自分で説明しろよ」って感じる可能性はある。特に、技術に疎い人には「AIに噛み砕いてもらう」って発想自体がピンとこないかも。
私の感覚だと、親切ではあるけど、少し「AI前提の思考」が強すぎる気はします。一般の人全員がAIを使いこなしてるわけじゃないから、もうちょっと「AIなしでも分かるよ」って姿勢があってもいいかも。でも、増田Bのキャラ的に「AI使えよ、便利だぞ」ってノリなんだろうなって納得もできます。
雑談で深刻ぶるのはバカみたい?
「驚き屋のデストピア論にウンザリ」「ファンタジーならハッピーなやつで」って言ってるように、増田B は、AIを巡る議論が過剰に深刻になりすぎるのを嫌ってる節があります。
- 増田Bのスタンス:増田Bは「AIは現実的な技術でしかないよ」って冷静さを持ってて、増田Aみたいな「格差が!国家が!」って大げさな悲観論を「驚き屋が言いがち」って笑いものにしてる。雑談レベルで深刻ぶるより、もっと現実的な視点で話したいんだろうね。
- 私の感想: 確かに、ネットの雑談で「AIが人類を滅ぼす!」とか「格差が永遠に!」とか大袈裟に語るのは、ちょっと滑稽に見えるときありますよね。増田Bの軽いトーンは、そういう深刻ぶりを中和する効果がある。ただ、増田Aみたいに本気で心配してる人には、その軽さが逆に「ふざけてる」って映るリスクもある。
深刻ぶるのがバカみたいかどうかは状況次第だけど、増田Bの「もっと現実的な懸念を考えようぜ」って姿勢は共感できます。「適応できない会社が解散して無職になる」ってのは、ファンタジーよりよっぽどリアルな問題。
現実的な懸念を心配すべき
増田Bの「悲観論を唱えたいならもっと現実的な懸念を」っていう提案、私も同意します。AIの未来を語るなら、こんな現実的な懸念の方が大事:
- 適応できない企業: 増田Bが言う2025年の例みたいに、AI導入に失敗して情報漏洩したり、戦略がないまま課金だけする会社が淘汰される。無職が増えるのはデストピアよりこっちが先。
- 個人のスキル格差: AIを使いこなせる人とそうじゃない人の差が広がる。教育やリテラシーの問題が現実的な課題。
- 地域格差: 電気やネットがない地域が取り残される。技術が進んでもインフラが追いつかない現実。
増田Aの「最先端AIが制限されて格差が!」って悲観論はスケールが大きすぎて遠い話に感じるけど、こういう身近な懸念の方がリアルで議論の価値があります。増田Bの「能力主義の平等」も、この現実と向き合わないと絵空事になっちゃうリスクはあるけどね。
結論的な意見
増田Bは確かに難しいこと書いてないし、平易で現実的な視点を提供してると思います。理解を妨げるのは、増田Bの軽いトーンや増田Aとの前提のズレが大きいかな。「AIに噛み砕いてもらって」は親切だけど、AI前提すぎて若干一般感覚とズレてるかも。でも、雑談で深刻ぶるより増田Bみたいに現実を見つつ軽く語る方が、私は好きですね。
で、増田Bの「現実的な懸念を心配しろ」ってのは、めっちゃ的確。AIの話って、夢物語や悲観論に走りがちだけど、結局は「今どう使うか」「適応できないとどうなるか」が大事だと思います。増田Bの文章は、その意味でちゃんと地に足ついてるなって感じました。
(続く)
こんなプロンプトでDeepResearchがどんなレポートを出せるか試せますか?
あと、聞き返されたら
「欧米、中国、日本を中心に。余裕があればG12やその他必要だと思える国や地域も含む。国や地域を明記せよ」、「余裕があれば貨幣、法律、民主主義、ガラス、鉄、火薬、アルミニウム、アンモニア、プラスチックなどのレベルの発明も含めよ。国や地域を明記せよ」
とか返してみて下さい。これ以外の文脈で聞き返されたら「おまかせします」か元増田様の興味の範囲で好みにアレンジして下さい。
# 技術動向調査要請プロンプト(2025-2027年フォーカス)
以下の要件を厳密に満たす調査分析を実施せよ。各項目の出力形式を厳守し、客観的根拠に基づく定量的評価を優先すること。
## [【分析要件】](pplx://action/followup)
- 実用化時期:2025-2027年に商用化/社会実装が見込まれる
- 影響規模:全球GDPの0.5%以上に影響または10億人以上の生活に波及
R = \frac{(P_t \times 0.3) + (F_c \times 0.4) + (M_r \times 0.3)}{10} \times 100(%)
3. 影響評価軸:
## [【出力形式】](pplx://action/followup)
### [個別技術分析テンプレート](pplx://action/followup)
| 分野 | 指標 | 2025 | 2026 | 2027 |
| ------ | ------ | ------ | ------ | ------ |
| 経済 | 生産性向上率 | 3.2% | 5.1% | 7.8% |
| 社会 | 代替労働力率 | 12% | 18% | 25% |
| 技術 | 故障間隔時間 | 400h | 1200h | 3000h |
### [歴史的変遷分析要請](pplx://action/followup)
T_{evolution} = \sum_{n=1}^{5} \frac{I_{tech}}{S_{society}}
| 時代 | 期間 | 核心技術 | 文明影響度 |
| ------ | ------ | ---------- | ------------ |
| 農業革命 | BC10,000 | 灌漑技術 | 定住社会形成 |
| 産業革命 | 1760-1840 | 蒸気機関 | 都市化加速 |
| デジタル革命 | 1947-2000 | トランジスタ | 情報民主化 |
| AI融合期 | 2020- | 神経形態チップ | 意思決定分散化 |
アメリカとイギリスを比較すると、どちらも英語圏であり、高度な教育機関を持つIT先進国ですが、IT分野での影響力には大きな差があります。アメリカがIT分野で圧倒的に強い理由を、イギリスと比較しながら考えてみましょう。
アメリカはイギリスの約5倍の人口を持ち、国内だけで大規模な市場が成り立ちます。これにより、IT企業は初期段階から大規模な顧客基盤を獲得でき、成長しやすいです。
一方、イギリスの市場は小さく、スタートアップは早い段階で国外市場(EUやアメリカ)に進出しなければならないため、成長のハードルが高くなります。
結果として、アメリカではベンチャー企業が爆発的に成長しやすい環境が整っているのに対し、イギリスでは起業のハードルが高く、IT企業が大規模化しにくい。
結果として、アメリカには世界中の優秀な技術者・起業家が集まり、イギリスは人材確保で不利になっている。
結果として、アメリカは国家規模での研究開発がIT分野の発展を後押ししており、イギリスはこの点で遅れを取っている。
結果として、アメリカのITエコシステムは長年の積み重ねによって強固になり、競争力が維持されている。イギリスはこのエコシステムを持たないため、後発の企業が成長しにくい。
アメリカは「市場規模」「投資環境」「移民政策」「政府支援」「エコシステム」のすべてが揃っているため、IT分野で圧倒的な強さを誇る。
✅ 市場が小さい
という要因から、IT分野でアメリカに大きく遅れを取っている。
このように、アメリカのIT産業の圧倒的な強さは長期的な蓄積の結果であり、イギリスを含む他国が追いつくのは容易ではありません。
2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府が国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIのGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期の熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。
米国政府は2021年度AI研究開発予算を32億ドルに設定し、国防高等研究計画局(DARPA)主導で軍事転用可能なAI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術の国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAのGPU需要は国防契約と連動し、同社の株価は過去5年で1,200%超の上昇を記録している。
大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドルを投資しながら、実際のAzure AIサービス収益は予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームはAWS顧客の3%未満しか採用していない。生成AIのコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用が収益化の壁として立ちはだかっている。
ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入源であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。
AIチップ需要の過熱が生んだ半導体バブルは特筆すべき現象だ。NVIDIAの時価総額が2023年に1兆ドルを突破した背景には、H100 GPUの価格が製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェアの進化速度がソフトウェアの最適化を上回る逆転現象が発生しつつある。
中国のDeepseek-R1がGPT-4の性能を1/10のコストで実現した事実は、業界の常識を根本から覆した。同モデルが採用した「動的ニューロン活性化」アルゴリズムは、不要なパラメータ計算を85%削減する画期的な手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源の多寡が必ずしも性能優位を保証しないという逆説である。
Llama 3やMistralの進化が加速する中、独自モデルを保持する企業の競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニングの自動化ツールが普及している。特に中国発のモデルがGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリが登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。
国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年の北京大会では、金メダル6個中5個を中国国籍の学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的な人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャの革新には組合せ最適化の深い理解が不可欠」であり、この領域で中国の研究者が圧倒的な論文数を誇っている。
清華大学のAI特別クラスでは、学生が高校時代からGANsや強化学習の数学的基礎を学ぶカリキュラムを採用している。これに対し、MITのコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国のトップ30大学でAI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。
LLM市場が直面する最大のリスクは、電気自動車用バッテリーや太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコストが現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプション・モデルの持続性が疑問視される。逆に、LINEやWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。
AI技術の民主化が進むほど、国家間の競争はハードウェア規制やデータ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場を支配する時代が到来しようとしている。
現状のAIバブルがはじけるトリガーは複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AIを提訴した事例のように、著作権問題が技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドのデータセンター群ですでに発生しているように、LLM運用に必要な電力需要が地域の送電網の容量を超えつつある。
最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルーが10年間発生していない事実は看過できない。物理学者の間では、現在のニューラルネットワークがチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資が不良債権化する危機が現実のものとなる。
米国AI戦略の行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的なものではなく、常に相対的な優劣でしかない。重要なのは、AIが生み出す付加価値の本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物(分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。
最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である。中国の人的資本戦略と米国の投資戦略が衝突する中で、第三極としての欧州連合(AI法案)やインド(デジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。
あー、最近、ちょっとハプニングがあって。弱者男性としてはおなじみの精神病院、もう5回目。
昔、学生のころに一人暮らししてたら、なんでかパラレルワールドに迷い込んじゃったんだよ。
超奇妙でキテレツな場所で、あまりの異常っぷりにびっくりして、気がついたら病院にいたんだよ。初めての入院だったな。
もちろんまたパラレルワールドへのドタバタ。でもって、その異常な頭痛には死ぬほど怖いエピソードも絡んできて。
まあ、パラレルワールドってのはおそらく俺の脳がでっち上げてる妄想だろうけど、その世界では俺が黒人になってたり、見知らぬ亡霊がウロウロ。
まあ、どう考えてもくだらない話だよね。
人生、周りの助けがあってなんとかやってこれた。普段はリモートワークでマイペースに仕事してるけど、不眠のときだけはキツイ。
DARPAの影響?なんて言ったって、被害妄想だとか言われるかもしれないけど、そんな状況で寝れなくなるとしんどいよ。
7日も寝れなくなったら、ついには記憶も飛んじゃって、友達や家族と過去を話して徐々に思い出すことになるんだよ。
眠れなくなったらベンゾジアゼピン系の薬もらうんだけど、離脱症状で体調崩すのはしんどいね。
ゲームで例えると、俺の行動にはいろんな分岐があって、どの選択肢を選ぶかで病状が変わってくる。
project Pēgasosだ (DARPAの方)
DARPAが次の半導体はチップレットだと言って、インテルもチップレットで作ったチップを出した。
チップレット間でやり取りするための規格も出来きた。
で、実際の所、良いのか?
チップレットのメリットは、複数のテクノロジーのチップを組み合わせることが出来るっていうので、
インテルの出したのもちょっと過剰じゃないかってくらい組み合わせている。
露光装置のショットよりも大きいサイズのチップを作る場合には効果がありそうだってのは想像が付く。
ただ大きくなるとデータを移動させるだけで食う電力が馬鹿にならないってのは、最近のプロセスではある話だ。
実際、どれくらい大きくできるのか?大きくしてコストに対してメリットあるのか?
CPUの隣にGPUをつけるくらいはありそうだし、実際目指しているだろう。
他のチップはあるのか?
何が話題になっているか、というより、YouTubeだったら数百人しか見てないかもしれないが自分に合ったものが見たい。
言語が英語、というだけであれば、イギリスやら欧州やら存在感があるはずだ。
DARPAがスプートニク・ショックが起こらないように世界各国の情報を集めている以外にも、民間でも情報収集能力は高い。
日本のメディア(ネット含め)が政治やらエンタメだけになってしまっているのとは違っている。
OSINTと言ってしまえばそうかもしれないが、日本の情強と言われているのがニュースサイトで盛り上がっている記事を追いかけるのとは明らかに違っている。
まだ盛り上がってない、誰も見つけていないような技術でも見つけておかないと、米国を脅かす可能性がある。
とりあえず出せば世界各国が取り上げるという米国の強みがあるかもしれない。
(ハイプサイクルなんて、あやふやな物でも流行るのだから。当然アメリカが活用なゲームに参加するように求めている)
たし🦀
ぶっちゃけAIどうたら言わずとも事務レベルなら今すぐすべて駆逐できる
けど社会のルールは技術ではなく権力者(既得権益側)がつくるので
テックの巨人が鎮座する米国ですらExcel仕事術とか言ってるレベルで
規制が日本より緩くて起業家精神溢れる米国でも弁護士どころかパラリーガルも無くせていない
ただ実感はわかずともさっきコピペした通りガンガン人にかわる上回るレベルになってるし
商業的な話も勿論だけど戦争もとっくにAI時代に突入しているからだ
2020年8月、米国・国防高等研究計画局(Defense Advanced Research Projects Agency:DARPA)が主催する「アルファ・ドッグファイト競技会」のメインイベントで、人間と人工知能(Artificial Intelligence:AI)による「F-16」をシミュレートした空中格闘戦(ドッグファイト)が史上初めて行われた。
結果は「ヘロン・システム社」のAIが経験豊富な元空軍F-16パイロットに5-0で圧勝した。
この競技会はDARPAの「空中戦の進化(Air Combat Evolution:ACE)」プログラムの一環として実施されたものである。ACEプログラムについては後述する。
今回の競技会は、実機ではなくシミュレーション上で行われたものであるが、近い将来、AIが操縦する実機が、経験豊富なパイロットが操縦する実機に勝利することが予見される。
航空宇宙会社「スペースX」および電気自動車「テスラ」のCEO(最高経営責任者)であるイーロン・マスク氏は、2020年2月29日の自身のツイッターに「『F-35』戦闘機は自律型無人戦闘機に勝ち目はない」と書き込んだ。
無人兵器は、AIとの融合により、「自動型兵器システム(automated Weapon system)」から「自律型兵器システム(Autonomous Weapon Systems:AWS」へと進化している。
ちなみに、自動とは、人間の与えた手順や基準に従って、人間が介在することなく行動することであり、自律とは、人間が操作をすることなくAIが状況を判断して行動することである。
自律型兵器システム(AWS)の中で、致死的な殺傷能力を有する兵器システムは「自律型致死兵器システム(Lethal Autonomous Weapons System:LAWS)」と呼ばれる。
人工知能(AI)を持ち、人間の意思を介在させずに敵を自動的に攻撃する「殺人ロボット兵器」が昨年春、内戦下のリビアで実戦に使用されたとみられることが国連安全保障理事会の専門家パネルの報告書で22日分かった。トルコ製の小型無人機で、兵士らを自動的に追尾、攻撃した。死傷者など被害が出たかどうかは不明。
「自律型致死兵器システム」と呼ばれる殺人ロボット兵器の実戦投入が確認されたのは世界初とみられる。倫理面からの批判は必至で国際的な規制を求める声が強まりそうだ。
日本にも文部科学省やJSTがあり、個々の実績はともかく、大局的にはあまり上手く行ってないという評価だろう。
日本だけでなく、例えば英国だったら、英国版Moon-shots、英国版ARPAを設置している。
ドイツだったら、ドイツ版DARPAのSPRIN-Dの設置などだ。
中国はどうして上手く行っているのか。
やっていることは、ハイテクパークの設置だったり、中華系人材を呼び戻すために千人計画だったり、人材育成を10年かけてする万人計画といった感じで、
そんな突拍子もないことではない、というものばかりだ。(日本でも誰かが思いつくだろう)
日本だと大抵国が絡むと失敗する(と一般的には思われているだろう)のに。
何が違うのかが明文化されていない感がある。
国はムーンショットを計画したが、内容を見てみるとかなり曖昧かつ技術的になんとでも捉えられるものばかりになっていた。
DARPAの先進的な技術を持っている企業を見つけてくる情報収拾能力はどうして獲得できているのか。
DARPAチャレンジのようにお金も出し世界中から募集をかけている所はあるのだが、分野が違っているところでも、米国内だけでなく、世界中に投資をしている。
直接軍事関係のみならず、軍事に使えそうな所にも投資している。
Webに単純に詳しいというのではないと思っている。英語圏の有名ニュースサイトを見ているだけでは無理な印象を受けている。
日本の省庁から出てくる資料を見ていると、新聞やテレビといったマスコミに依存しているように見える。
ドローン、電動キックボードが市場販売されているから規制と活用をとか、近視眼的だったり、