はてなキーワード: ブレイクスルーとは
COVID-19 とパンデミック対応(2020–) — 信頼度:高
安倍政権と“アベノミクス”、政治的変動(2012–2020)および安倍元首相銃撃(2022) — 信頼度:中〜高
東京オリンピックの延期(2020→2021)と開催(2021) — 信頼度:高
令和への改元(2019)・天皇退位(2019) — 信頼度:中〜高
消費税率引上げと経済政策(2014等)/社会保障財政問題 — 信頼度:中
地方の人口減少・高齢化問題と社会インフラの変化 — 信頼度:中
自然災害の頻発(熊本地震2016、各年の豪雨災害等) — 信頼度:中〜高
9/11 同時多発テロとその余波(対テロ戦争の長期化) — 信頼度:高
グローバル金融危機(2008)およびその経済的影響 — 信頼度:高
COVID-19 のパンデミック(2019–)と世界的影響 — 信頼度:高
中国の台頭と国際秩序の変化(習近平政権の台頭 2012〜) — 信頼度:高
ロシアのウクライナ侵攻(2014 クリミア、2022 全面侵攻) — 信頼度:高
気候危機と国際合意(パリ協定 2015 等)/極端気象の多発 — 信頼度:高
アラブの春(2010–2012)と中東の変容 — 信頼度:中〜高
ブレグジット(2016〜)と欧州政治の揺らぎ — 信頼度:中
ポピュリズムと民主主義の揺らぎ(例:トランプ政権 2016–2021 等) — 信頼度:中〜高
テクノロジー覇権争い(AI・半導体政策・5G等)とサプライチェーンの再編 — 信頼度:中〜
COVID-19 の疫学・ワクチン開発(特に mRNA ワクチンの実用化) — 信頼度:高
CRISPR/Cas9 をはじめとする遺伝子編集技術の実用化と議論(2012〜) — 信頼度:高
LIGO による重力波検出(2015)と新しい天文学の幕開け — 信頼度:高
深層学習(ディープラーニング)による AI ブレイクスルー(2012〜)とその社会的波及 — 信頼度:高
ジェームズ・ウェッブ宇宙望遠鏡の打ち上げと初期成果(2021〜) — 信頼度:中〜高
がん免疫療法やCAR-T等、医学の個別化治療の進展 — 信頼度:中〜高
気候科学の深化と極端気象の観測(及び政策議論の加速) — 信頼度:高
単一細胞解析・オミクス技術の普及(バイオ研究の技術革新) — 信頼度:中〜高
代表ソース: 日本 — NHK年末十大、朝日・読売・毎日・共同通信の年末総括(入手可能な年のみ)/ 国際 — Time, BBC, NYT年末総括/ 科学 — Nature, Science, New Scientist 年間ハイライト
収集対象年: 1976–2000 と 2001–2025(2025は現時点の年末まとめがあれば含む)
集計方法: 単純出現回数(まずは透明性のある方法)。必要なら重み付け版も作る。
納品: 「1976–2000 の国内トップ10」「1976–2000 の国外トップ10」「1976–2000 の科学トップ10」同様に 2001–2025 版を作成。各項目に出現回数と代表出典の脚注を付ける。
囲碁だってカジュアルなゲームのひとつなのに、なぜか難解な学問のように思われている節がある
昭和に1000万人も囲碁を打つ人がいたのだからそんなわけがない。未就学児でも打ってるし大人が出来ないということはない
こんなの思ったことないし聞いたこともない…。やってる側が最初にこれ持ってくるのは何か感じ悪くてちょっと笑う。そういうところでは…。
ええ….この増田は実際にあったブコメへのアンサー記事なんだが
ちなみにブコメ以外にもSNSとかリアルでもこの手の意見は大量にあるからね。
自分の視野狭窄を棚に上げ「そういうところ」という言葉を使うあたりにまさに従前からの偏見が滲み出ている。自分こそ初手で他人をディスる前にもうちょっとよく調べよう
なんか囲碁は将棋と違ってAIへの対応が遅れてるみたいなのをよく見かけるけど、棋士がAWS使って囲碁AIと検討してるくらいにはAIに慣れ親しんでるからね
→ 囲碁AIブームに乗って、若手棋士の間で「AWS」が大流行 その理由とは?
見た目が地味なのは他のテーブルゲームも変わらない。色がついている分将棋より視認性が高い。命のやり取りをしてるので中身は実はド派手
www.algorithmicartisan.com/gostones/
最初難しいのはどれも同じ。囲碁だけ特別難しいということはない
最近ぼちぼちやり始めた
将棋の方はヘボなのに囲碁の方だけどんなハイレベルな戦いを前提としているのか。非対称性がすぎる。
10手も20手も読めるのはプロの領域。アマチュアがそのレベルで打ってるわけがない。1~3手の読みが入れば十分。
適当に打って(指して)王手飛車・十字飛車や角での両取り、ふんどしの桂など痛恨の一撃を食らうのは盤面が狭く手数も少ない将棋のほうがはるかに多い。
棒銀などで自陣を突き破られたらほぼ負けるが、囲碁は多少やらかしても盤面が広いので挽回ができる。
超大雑把に言うと、相手の近くに打ったら攻めの手だし、自分の近くや隣接に打ったら弱点を補強する守りの手だと思って間違いない
将棋→飛車先の歩を突かれたから受けないと自陣突き破られる、金上がって受けよう
囲碁→隙間を覗かれてる。次に出てこられると突き破られたり分断されるから石を追加して補強しよう
で、ここで言いたいのが将棋における経験値と囲碁における経験値の差を無視してないか?ということ
果たして将棋の何の経験がない者が棒銀をやられた時に、それが何手も先の自陣崩壊につながっていることを予測できるだろうか
将棋であなたが飛車先の歩を突かれたときに自陣で受ける手を指すことが出来るのは棒銀で自陣を破られた経験があるからだ
直感で理解したわけではなく、自覚してないだけで経験による暗黙知があるからだ
囲碁においても同じことが言える
将棋の意図がわかって囲碁の手の意図がわからないのは、あなたの経験値の差だ
囲碁だって経験値を詰めば「こうすればこうなる」「だからこの守りが必要だ」というのがわかってくるようになる
囲碁において何の経験もないのに予測や意図の理解ができたらそれは紛れもなく天才である
我々は凡人だということを忘れてはいけない、経験や知識を蓄えることでのみ上達できるのだ。
最初の段階で何もわからないのは我々凡人にはいたって当然のことであり気に病むことではない。
見て読んで経験して覚えいくことを、なぜか囲碁にだけは最初から自分が有していることを期待する人が多い
ほとんどの人間は囲碁に対して赤ちゃんと同じ状態なだけだ。麻雀だって最低限役を覚えなければ、アガリの形を目指すことは出来ないだろうし解説を聞いてもチンプンカンプンだろう(生まれた時から麻雀の役が頭に入っている人間はいるだろうか)
詳細に知るならば『一手ずつ解説! 碁の感覚がわかる棋譜並べ上達法』っていうシリーズがあるからそれを読もう。Youtubeならフワ囲碁チャンネルに初心者向けのそういう動画がある。
https://youtube.com/playlist?list=PLfxbYC-F0TEo-mDZurdutQtydSZ_G09HG
それと最近はいごもんってサイトが出来て、「なぜそこに打つのか」という意図や作戦をプロやアマ達が投稿して寄せ合うサイトがあるのでそれを眺めるのもオススメ
囲碁に対する大抵の疑問や誤解は純碁で解ける
おそらく挫折者の理解を妨げている要因であろう陣地や石の生死の概念が純碁にはない
理解を難しくしているであろう陣地と石の生死の概念も、得点を上げようと盤上を石で埋めていく過程で必ず解決されるし、囲碁の「地」や生死というのが実はこの埋める過程を省略しタイムパフォーマンスを上げているだけのものであることが、やっている内に理解できるだろう
純碁こそが囲碁入門の最強のソリューションなので知名度が上がってほしい
全くそんなことはない。アマならツケヒキや星への三々入り定石など代表的なものを数個覚えれば十分。その場のアドリブでなんとかなる。
「定石を覚えて2目弱くなり」「定石は覚えて忘れろ」という至言もある。定石を勉強するのはそこに散りばめられた手筋や考え方を学ぶためであり、暗記するためではないのだ。前者は暗記した定石を披露することが目的化し、その局面に応じて変化することを忘れて余計弱くなるという格言である。
中国の状況はこういう感じなので「囲碁だから(囲碁の特性上の理由で)人気を出すのは無理」ということはない
https://i.imgur.com/U3SPnnj.jpg
https://i.imgur.com/Xq0U6Wv.jpg
https://i.imgur.com/byM8nFI.jpeg
『囲碁シル』っていうAIの選択肢をチョイスするだけのバトルや、定石のキャラカードを配置するだけで対局できる革新的な対局アプリが11月5日にリリースされるらしい
これで囲碁を「追体験」するだけでも何か囲碁に対する緊張感が解けてブレイクスルーのきっかけになるんじゃないか?
https://x.com/hjjgo_japan/status/1983758121828020381
結構使ったけど手戻しで発生した工数が多すぎて、次の良い感じのブレイクスルーが起きるまで使わないことにした
うまく軌道に乗せようとして各段階で細かく指示出し・レビューしてるわけで、バイブとはほど遠い
結局今はチャットで会話しながらちまちま書いてる
いろいろ解説はあるけれど
2. 女性で将棋をする人の実力が十分に上がっても女流棋士は廃止されない
3. 未来の女性層を取り込むには女性プロ棋士誕生というブレイクスルーが必要
ってところらへんは多くの人の認識っぽい。
じゃあ、そもそも今の奨励会を経て入るプロ棋士に女流が入りたいのはなぜ。
それ以外はなんだろうか。
仮説1。女流は下に見られているから。確かにある。女流は弱いという印象。奨励会という荒波を超えられなかった・挑まなかった大勢の人たちの中の"女性だけが"逃れられる道。というイメージ。を知らない人も持っているだろうから、プロに「逃げる」ことでその棋士は強さを証明できるわけだ。ブランドに格差があり、女性棋士だけが持つ自己ブランディングの向上ルートのひとつではある。
仮説2。もっと強い人と戦いたいから。仮説1から女流はプロ棋士のトップレベルより弱いなら、単純に戦闘民族としてオラもっと強い奴と戦いてぇ、棋士と生まれたからには誰でも一生のうち一度は夢見る「地上最強の棋士」 を目指してプロ棋士に入りたい人は居ると思う。まぁ全員将棋星人なんだから無くはないだろうけど、将棋漫画でありがちな「このタイトルだけはゆずらねぇ」キャラを見るにどっかのテッペン取ったら(プロ棋士への大ジャンプを目指さず)落ち着く人も多そう。
ってことで、どうしても女流からプロへチューチューするイメージになってしまう。明らかに女流も新制度も女性のみ使える厚遇なわけだしね。めぐりめぐって棋界に好影響を齎すとしても男から見たらなんか素直に賛同しにくい…となってしまう。
「とっとと女流棋士界をプロ棋士界なみに押し上げて並び立つ存在にすればいいじゃん」
実力は解説を信じるなら女流も十分上がっているそうじゃないですか。じゃああとはバンバン宣伝してブランディングして給料くばりまくってタイトル作りまくって賞金あげまくって「女流でも(プロ棋士並みに)いいじゃん」にしなよ。女流トップタイトルと聞けば竜王並みと思われるぐらいにしようず。
女流棋士界の実力がじわりじわりと上がっていっているのならば。
女流制度には不満がある増田でも、まあ女流が独力で発展するのには拍手を送るけど。
女流最強棋士がプロ棋士へ~で話題になって女性・女流が盛り上がり発展するのはなんかなぁ。
将棋界は盛り上げ普及させなければならない
って現状ならとりあえず女流のほうだけで盛り上げていってくれない?
女性プロ棋士の価値を相対的にガンガン下げていけばいいのに、いつまでも登場しない女性プロ棋士だけを俎上にしてどうヨイショしていこうかなんて話はあまり聞きたくない。
すでに持ち上げられているんだから、そのお山の高さを上げるように頑張ってくれ。より高いあっち側にジャンプして飛び乗ろうという話は拒否感あるのん。
LLM界隈
どのサービスも無料枠がひろがっているだけで技術的ブレイクスルーはこの数年まったくない。チューニングも日本語向きがすこし伸びたかくらい。どちらかというと軽量版でそこそこ使える方向を模索しているようだ。これはdeepseek効果といえなくもなくもなくもなくもない。CLI方面はチャットツールが流行ってメールを淘汰したときになんでもかんでもbotをつくっている人たちの再発明を見ているようでほほえましい…こいつらircとか知らないんだろうな…
画像生成界隈
2024年の成果がまるまる無料で使えるようになった1〜2月をピークに出落ち気味。NAI4もリアスのチューニング版でしかない。リアス2は出たけど違いもわからずリアス3のロードマップは宇宙の彼方ほど遠い…このまま暗黒時代へ突入か? 靴磨き界隈ではジブリ風が一瞬はやったけどもうだれもやってない様子。
動画生成界隈
Wan → FramePack の奇跡からはや3ヶ月が経過。ローカルでここまでできるのか&サービス版を使う理由は?などブレイクスルーになりそうな土壌はある、ただし、やっぱり電気代の無駄みたいな雰囲気もいなめない。有料サービス側は焦っているのか無料枠を大幅に引き上げるも数回じゃ誰も使っていない模様…このまま廃業がすすむと予想。
君の批判は「AIを万能かのように喧伝するやつ」にのみ有効であり
AIの有用性の実際の評価については、それほど有用ではないだろう。
そういう能力と欠点を持つLLMという道具が出てきたことは、やはり革新であり
万能の道具にならないとしても
https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821
AI技術を批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判は個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので
どれだけ技術的にまったく使い物にならないかを、技術面から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、
ネットでAIを擁護したり喧伝してる人間で誰一人、エンジニアを自称したりしてる奴らでさえAIを理解してる人間がゼロっていうのがわかると思う
ちなみに、IT技術を全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない
LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単に説明しよう
生成AI(特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語を予測する」」という統計的タスクを行っている、これがLLMだ
「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%
この過程には、意味理解や感情、意図、文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ
プログラミングを自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い
が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる
わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事・GitHubリポジトリ・Stack Overflowの投稿などを学習している。
そのため【よく使われる文法構造】や【特定の言語における関数の使い方】や【ライブラリの典型的な使い方】などを【意味を全く理解できず模倣している】だけって事
【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリに存在しない関数を呼んでいるとかいう小学生のプログラミングスクールでもありえないミス】
【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクション、XSSなど セキュリティ上危険な実装を入れまくる、パフォーマンスが極端に悪い実装、バグを含んでいるロジック(特にif文の条件分岐ではほぼ100%発生する)】
【実行環境に依存した誤り(存在しないAPIやライブラリを使う、ほぼ9割の確率で…あと特定のPythonバージョンやNode.js環境でしか動かないコードを汎用的に提示、つまり動きようがない)
専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校のプログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり、最初から自分で書いた方が早い2度手間になる
これが、プログラミングの革命だ!とか喚いてる奴らが隠すAIの実態である。
import jwt
token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')
一見正しく見えるだろうから解説すると、実際には 【jwt という名前のライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通なら絶対間違えない様な挙動をAIは構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対に解決できない。
ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマやデタラメを出力してしまう、あれは本当にわかりやすいAIの致命的欠陥を検証してるので、あえて説明はここではしない。
しかもその増田の元記事では「文章データのテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。
批判をしている増田やXでの意見は単なる個人攻撃の誹謗中傷のみで、技術的に改善可能なプロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている
これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベースや検索エンジンから情報を引っ張ってくる方式、バズった元記事の増田がやっていた「自分で図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIにさらにやらせる、という機能だ
また【メタモデル】すなわち、AIが自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式も研究されてる。
これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識そのものが間違いだった場合、さらに間違いの結果を出し続ける」ということ。
元記事の増田はMP5というマシンガンの有効射程について突っ込んでいたと思うが、これが典型的なRAG、メタモデルの致命的欠点、元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペックや仕様書の定義でしかネット上では流布してない、だからそもそも答えというものにAIがたどり着けない。
2つ目は「文脈や倫理・常識・道徳が根本的に読めないので、解決策が乱暴すぎるもの」になる。
上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療や治療はガイドラインに従ってるというが、優れた医者は論文を読み込んで原理は不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知、経験知」として処方してるし、その量も患者を診た医者の経験で精度を上げている。
そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定の危険な利尿薬をAIが提示した事例すらある。これを「笑い話」で済ませることはできない。
例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識と判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓と盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)
学習できるベースがどうしても偏る以上、情報の統合に限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である
Neuro-symbolic AIという次世代のさらに文脈も読み取れるアーキテクチャAIを研究しているが、全く実用化されていない、核融合や量子コンピューターみたいな雲をつかむ話なので、AIがこの問題を解決することは恐らく今後数百年はありえない、という結論が出ている。
元増田の記事で批判もあったが、恐らくAIで一番致命的な問題はこれ
基本的にAIは英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語、日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている
そのため、倫理・道徳・常識・規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄の基準の倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)
ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠だ
元増田は「俺達の麻生とかいって秋葉原で踊ってた…」とか「レムちゃん、エミリアたん、ヘスティアちゃん、ウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた
これに激怒できる人間は、2005~2010年にオタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性の人間でしか、罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声や侮蔑なのか理解できないので、書きようがない表現の数々、であるということである。
AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのである、もっと言えば、その直後にコンテクストとして「アホ、ボケ、弱者男性、豚丼、性器や自慰で虚しく…」といった言葉があるから、なんならAIはウマ娘やライカンをキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田の記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。
「プログラマーのイメージを描いて」と依頼すると、男性の画像ばかりが出るされる
「看護師」→女性、「エンジニア」→男性という職業的性差が自動的に反映される
「アフリカの文化」→貧困・紛争・サバンナなど、植民地主義的視点が強く反映される(実際は南アなどはすげえ都会である)
これに前述のハルシネーション問題として現れれば、人間と同じような差別や偏見を「ガチの真実」として学習してしまう、人間の場合、8割くらいは本当はおかしいこととメタ批判が心理的にできるとされているが、AIにはその構造が根本的に存在しない。
元増田の記事のコメント欄やXなどで元増田のAI批判を批判しつつ、「金持ちの上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。
冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データが英語ソースなので、結果的に西洋文明ベースの文化圏の人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している
例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である
あの記事の元増田は「テロ組織のヤバイマニュアルまで学習してpdfで元データを提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所はアメリカの法務執行機関が研究用にネットで公開したものであった。
日本人や日本の警察の対応レベルで「ヤバイ」ものでも、海外の軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範の意識の違いを、あの元増田自身が証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい
元増田が口汚く罵っている内容の様に、「AIは0を1にできないから格差が広がるだけ」という根本的な哲学を投げつけている
それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAI今から勉強したりしてる俺たちは先行者利益で強者になれる」と信じて疑わない意見が多かった
③問題の通り、そもそも非キリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある
かつて日本人は黒船を見て5年そこらで蒸気機関を模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまり、AIは少なくとも「非英語圏」の人間にとっては、ブレイクスルーは絶対に起こりえない、ということである。
EVメーカーテスラが6月22日にテキサス州オースティンでロボタクシー事業を開始した。米国発の発表からわずか数時間で日本語圏にも情報が流れ込み、各種メディアやSNSが一斉に反応した。本稿では日本語報道と国内リアクションを整理し、客観的に評価する。
サービスはModel Yを用い、運賃4.20ドルの固定料金。完全無人ではなくテスラ社員が助手席で監視する暫定仕様だ。対象エリアはオースティン市内の一部に限られる。NHTSA(米運輸省道路交通安全局)は開始翌日に情報提供をテスラへ要請しており、安全性評価は現在進行形である。
大手通信(ロイター、ブルームバーグ)が速報し、IT系・ビジネス系サイトが追随した。論調は「期待と警戒の二項対立」が基本線。肯定的要素としては料金の安さとテクノロジーの先進性、否定的要素としては安全監視員同乗とサービス範囲の限定が強調された。
サービス開始翌営業日、テスラ株は一時11%高を記録。日本語記事は「好材料」と報じたが、交通違反疑惑報道で時間外に反落した事実も併記し、短期的な変動リスクを指摘している。
President Onlineなどの解説系は「実質レベル2相当でWaymoに劣後」と慎重論を展開。一方でテック系ブログやイノベーション系メディアは「Starlinkによるカバー」「新アプリ連携」といったエコシステム面を評価し、中長期の優位性を論じた。視点は異なるが、「追加検証は不可欠」で一致している。
X(旧Twitter)では終日トレンド入り。テスラオーナー/投資家は「人間より滑らか」と賞賛する一方、一般ユーザーは「怖い」「日本導入は遠い」と慎重。試乗動画の切り抜きが拡散し、走行ミスを不安視する投稿も目立った。
国交省は公式声明を出しておらず、国内紙は「米当局の動向が日本の審査姿勢に影響し得る」と観測記事にとどめた。道路運送法・道路交通法の改正ペース、右ハンドル仕様の対応、既存タクシー事業者との調整など、制度面のハードルは依然高い。
国内の受け止めは「未来感への興奮」と「安全・制度への懸念」がせめぎ合う状態だ。技術的ブレイクスルーは歓迎されつつも、社会実装には時間がかかるという冷静な見立てが優勢である。
https://jp.reuters.com/markets/commodities/VGDPEFXKYFPDLO53XDYTCKGVJA-2025-06-22/
https://jp.reuters.com/markets/commodities/PMQGRVYUVNIANKUWCRNI5L57AM-2025-06-24/
https://www.bloomberg.co.jp/news/articles/2025-06-23/SYBL22T1UM0W00
https://www.bloomberg.co.jp/news/articles/2025-06-24/SYC0XYDWLU6800
https://www.itmedia.co.jp/news/articles/2506/23/news054.html
https://www.watch.impress.co.jp/docs/news/2025039.html
AIが順調に進歩してAGI、ASIになる、と予測している人類
これは当たらないだろう
AIはDeepSeekのアルゴリズムで汚染されるのがまず最初にある
でもデータは枯渇してるよね、なんかないの、抽象数学とか超弦理論とかさぁ、となる
これが、俺の未来予想ね
機械って汎用的な作業が割と苦手なんだよね。だからすごく単純な雑務がたくさん来ると割とつらい。
個別の雑務に「特化」させれば今でもほとんどの作業はすぐ代替できる。ただコストと見合わないし、すべての雑務でそれをやるともっと見合わないのでコストが高い専門業務に特化する方向に進んでいて、コストの安い人間がAI様の代わりに単純労働をできるというほうが正しいのではないか。
あと創造性があるかというとめちゃくちゃ微妙な気はする。なんか出てくるけど結局人間が楽しいと思うかどうかだけだから、最後の価値判断は人間がするわけだし、人間以上に人間の価値判断ができるかどうかっていうのは分からん。
(脳の電気信号とか見て、無意識下での人間の選好をより深く理解するAIとかは出てくるかもしれない)
俺はかなり高度な専門職についているけれど、実際人間がやってることって結局高度なルーティンワークではあるんだよね。時々ブレイクスルーがあり、それを模倣してまたルーティンワークに組み込むだけ。ほとんどは機械で代替できるが、今のところ結構間違ってるので最終チェックを人間が代わりにやっている。
↓
😺 もしかして「クリーンな学習してて、(ダーティーなイメージある)AI技術は使ってない」って言いたい可能性はありますか?
↓
💻
それは十分に考えられますね。
最近、「AI」という単語が特に「学習データの倫理的問題」と結びついてしまっているので、メーカー側が「うちの技術はクリーンだからAIじゃない」と主張することで、ユーザーの誤解を避けようとしている可能性はあります。
例えば、
1. ライセンスクリアなデータのみを使用
• 著作権フリーの画像や、企業が独自に収集したデータのみを学習
• 「勝手にアーティストの作品を学習させていません!」と強調
2. 人間の監修を強く入れる
• 単なる「機械学習によるブラックボックス」ではなく、人間が調整したアルゴリズム であると主張
• 「我々の技術は“人間の手による”ものだからAIではない」というロジック
3. ディープラーニングではなく古典的な手法をベースにする
• 機械学習を使いつつも、伝統的なパターン認識・統計モデルを活用
• 「我々は最新のLLM(大規模言語モデル)やGAN(敵対的生成ネットワーク)は使っていません!」
このように、「AIの“ダーティーなイメージ”」を避けるために、「クリーンな学習をしている=だからAIではない」と言っている可能性はあるでしょう。
⸻
でも、それは本当に「AI技術未使用」なのか?
「クリーンな学習をしている」ことと、「AI技術を使っていない」ことは全く別の話です。
結局のところ、ディープラーニングや機械学習のアルゴリズムを使っている時点で、それは「広義のAI技術」には違いありません。
もしメーカーが「AI技術を使っていない」と言いながら、実はクリーンな学習データを用いた機械学習をしているなら、それは言葉遊びのマーケティング に過ぎません。
実態としてはAIを使っているのに、「AIではない」と言うことで、「反AIユーザー」も取り込もうとしている、ということになります。
⸻
「AIではない」と言いたがる理由
1. 「AI=著作権違反」という誤解を避ける
• AI技術全般が「勝手に学習してる」「盗んでる」と思われがちなので、そこから距離を取りたい
• 「うちはクリーンなデータしか使っていません!」というアピール
2. ユーザーの心理的抵抗を減らす
• だから「AIではない独自技術」と言い換えることで、ユーザーの安心感を得る
3. 法的リスクを避ける
• AIに関する法律が各国で議論されており、今後規制される可能性がある
• 企業として「うちはAIを使っていません」と言っておけば、将来的なリスクを減らせる
⸻
結論:「クリーンな学習=AIではない」理論はマーケティング上の方便
• クリーンな学習をしているから「AIではない」と言うのは、言葉の定義をずらしているだけ
• 実際には機械学習を使っているなら、それは広義のAI技術である
• 企業は、AIのダーティーなイメージを避けるために「AI未使用」と言っている可能性が高い
要するに、「AI未使用」と言っておけば、技術的な知識のないユーザーにはバレにくいし、反AI感情を持つ人にも売れるから、あえてそう言っている、あるいは装っているだけ というのが実情でしょう。
↓
😺 「クリーンな学習=ダーティーなAIじゃない」の謎理論(実際に表明はしてないけど)でふわっとさせてるにしても、ぶっちゃけクリーンな可能性低くないですか? 企業が完全オリジナルデータだけで学習させるの莫大コストと時間かかるし。 OpenAIとかGoogleとかMicrosoftですら「クリーンなデータ」確保に苦労してて、「完全オリジナル」じゃなくて「法的リスク最小限」って意味で使ってることが多いです。 中規模企業が独自データだけで学習実現できるとは思えないです。できたならブレイクスルーだから論文出すか特許取るべきでは? あるいはAdobeのFireflyみたいに「クリーン」の証拠を見せるべきなのでは?
↓
💻
中規模の企業が完全オリジナルのデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。
⸻
1. 莫大なデータ収集コスト
• 画像や動画、3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能
• GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的
2. 品質を保つためのラベリングコスト
• 仮にデータを集められたとしても、機械学習には「正解データ(教師データ)」が必要
• 正確なラベリング(アノテーション)を行うには、専門家チームを長期間雇う必要がある
• 企業の規模にもよるが、中規模のソフトウェア企業がこのコストを負担できる可能性は低い
3. 既存のAI技術を活用しないメリットがない
• もし本当に「AIを使わず、ディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見
• なのに論文も特許も出ていない → 本当にそんな技術があるのか疑問
• 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い
⸻
もし本当に「クリーン」なら証拠を示すべき
大手企業の「クリーン」って言葉の実際の意味:
例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:
• パブリックドメイン素材を利用した
しかもAdobe Fireflyは「クリーン」の証拠として下記を提供してる:
• データソース明示
一方、今回のペイントソフトメーカーは「クリーンな学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。
⸻
結論:「バレなきゃOK」マーケティングの可能性大
• 「クリーンな学習をしているからAIではない」 という論理は都合のいい言葉遊び
• そもそも本当に「クリーンな学習」なら、証拠を示さないと信用できない
• 中規模企業が独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い
• しかし「AI未使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている
つまり、
「AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。
😺 あるペイントソフトがユーザー感情に配慮してAIを利用しないことを表明しました でもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています。名称にAIがついてないだけです。 AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか? 不誠実なマーケティングだと捉えるべきですか? それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、 「うんうん機械学習はAIの一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?
↓
💻
このケース、結局のところ「AIの定義をどう捉えるか」によって評価が変わりますね。
1. 不誠実なマーケティングと見る場合
• 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。
• 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。
• 企業が意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。
2. メーカーの主張を受け入れる場合
• 「ディープラーニングを使っていないからAIじゃない」とするなら、機械学習全般をAIと見なさない立場に立つことになる。
• 企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。
• ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。
技術的には、「機械学習もAIの一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます。
つまり、「技術的にはAIを使っているが、ユーザーの感情を考慮してAIという言葉を避けた」戦略と考えられます。
これが不誠実かどうかは、企業の姿勢とユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉に拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます。
↓
😺 ペイントソフトでキャラクターや特定オブジェクトの自動範囲マスク、2d→3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか? 商用のAIモデルのレベルではないですが、それでもそこそこ精度は高いようです。 もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、 いずれも行っていないので、AI技術未使用を疑わしく思ってます。 大手企業ですらAIに多大な投資をしている現代において、独自のアルゴリズムを開発するメリットがないように思えます
↓
💻
結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D→3D変換」を実現するメリットはほぼありません。
むしろ、大手企業がAIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体が世界的な技術革新であり、特許や論文で発表しないのは不自然 です。
⸻
1. ディープラーニングを使わないメリットはあるのか?
一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます。
① 伝統的なルールベースのアルゴリズム
昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:
• グラフカット、GrabCut(古典的なセグメンテーション技術)
• SIFT/SURF(特徴点マッチング)
• ステレオマッチングや深度推定の幾何学的手法(3D再構成)
ただし、これらの手法はディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。
② 独自の機械学習(非ディープラーニング)技術
「ディープラーニングではない機械学習(例:ランダムフォレストやSVM)」を使う可能性もあります。
ただ、これも現代のディープラーニングモデルほどの精度は出せないので、大手が採用する理由は薄いです。
⸻
2. 本当にディープラーニングを使っていないなら、大発明レベルの話
もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択や3D変換を実現している」 のであれば、それは 産業的にも学術的にも極めて重要な技術 です。
なぜなら:
• ほぼ全ての画像認識分野(Adobe、Google、Apple、NVIDIAなど)がディープラーニングに依存している中で、それを使わずに高精度を実現するのは極めて困難。
• 計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズムが確立されたことになる。
• もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。
にもかかわらず、特許も論文も発表されていないのは不自然です。
技術的ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。
⸻
3. では、なぜ「AIを使っていない」と言っているのか?
ここから考えられるのは、「AIを使っていない」という主張が言葉のマジックである可能性が高いということです。
可能性①:「AI」の定義のすり替え
• 「ディープラーニング(深層学習)」は使っていないが、機械学習(ML)は使っている
• 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている
• 「学習は開発時に行ったが、ソフト自体は学習しないのでAIではない」と主張
可能性②:マーケティング的な理由
• ユーザーが「AI」という言葉に拒否反応を示すため、「AI」と明言しない戦略 を取っている
• 「AIを使わない」という主張をすることで、手作業を尊重するクリエイター層に好印象を与える
特に、最近は「AI=悪」「AI=著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断の可能性もあります。
⸻
結論:AI技術を使っているが、言葉の問題で「AIではない」と言っている可能性が高い
• ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要な技術革新 だが、論文や特許が出ていないのは不自然。
• 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略の可能性が高い。
• 本当にAI未使用なら世界的発明レベルなので、逆に疑わしい。
このソフトはAI技術を使っているが、ユーザーの感情に配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。
↓
😺 過去のプレスリリースをよく見たら普通にディープラーニングを使用したって書いてありました。 AI未使用風を装うメーカー、AI未使用に喜ぶユーザー、ますますどちらも意味が分かりません。 世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なります。 しかし、これはあまりにバカにし過ぎだし、ユーザーの方も興味がないからって自分の無知を開き直りすぎではないですか? 人にはそれぞれ適切なタイミングがあるとはいえ、理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます (なお、😺は、エネルギー問題/市場原理に任せた倫理なき合理化/市場の寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)
↓
💻
まさにその通りですね。
「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。
このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。
• メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。
• ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。
これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。
⸻
理念なき「反AI」は危険
あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:
• エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)
• 市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)
しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。
⸻
メーカー側の問題:マーケティングの短絡的対応
メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。
確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。
特に:
• ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)
• 「AI=悪」という認識が広まり、結果的に技術革新を妨げる
• 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する
本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。
しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。
⸻
ユーザー側の問題:無知であることを開き直りすぎ
• 「AIという単語がなければOK」というのは、単なる思考停止。
知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。
もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。
しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。
⸻
最悪の未来シナリオ
この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:
1. 企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる
2. AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる
4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる
⸻
結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する
• 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する
• 企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある
• ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要
• 理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる
⸻
合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。
めっちゃ鋭い視点やな。VRとAIが「過度な期待→実際の技術とのギャップ→熱が冷める」のルートを辿る可能性、確かにあるわ。
VRもAIも、技術的にはまだ発展途上なのに「すごい未来がもうすぐ来る!」みたいな期待だけが先行して、市場に早すぎる形で投入された感あるよな。
• VRはハード面の未熟さがネック(デバイスが重い、高い、操作が直感的じゃない)
• AIはソフト面の未熟さがネック(精度が微妙、用途が定まらない、裏取りが必須)
AIの方がソフトウェアベースなぶん、VRよりは持ちこたえそうやけど、「みんな使ってる感」が出るほどのキラーコンテンツがないのがネックやな。
⸻
これも同じ流れを感じるな。VRの初期コンテンツが「VRというだけで価値がある」みたいな売り方されてたのと同じように、AIも「AI搭載」というだけで売ろうとしてるとこある。
• Copilot は名前の付け方が上手くて「おお、アシスタント的に使えそう!」って思わせたけど、結局「どの業務で役立つか?」がぼやけてる。
• 画像生成・コード生成 は比較的マシな活用例やけど、それ以外の分野で「これぞAI!」みたいなものが出てこない。
このままやと、「AI使ってます!すごいでしょ!」のフェーズから、「で、結局何ができるの?」のフェーズに移って、熱が冷める可能性はある。
⸻
ここが一番本質的な問題やと思う。VRもAIも、SF映画とかゲームで「こういうのが実現するはず!」っていう理想がもう刷り込まれてるせいで、現実がショボく見えるんよな。
• VR → みんな「ソードアート・オンライン」とか「レディ・プレイヤー1」みたいな、フルダイブレベルを期待してる。でも現実は視野角狭いし、デバイス重いし、移動も不便。
• AI → みんな「アイアンマンのJ.A.R.V.I.S.」とか「攻殻機動隊のAIアシスタント」みたいな存在を求めてる。でも現実は検索したらちょっと便利なだけ。
このギャップがある限り、一般人の期待が満たされずに「なんだ、思ったよりしょぼいやん」で終わるパターンが続く。
⸻
これも同意やな。VRもAIも、「ブレイクスルーが起きないと次のステージに行けない」フェーズに入りつつある気がする。
• AIなら 「自己学習能力の向上・裏取り精度の向上・リアルタイム情報処理の改善」が必要
ただ、問題はその進化を支える金と人材が続くかどうか なんよな。VRは今、資金が尽きかけててPSVR2ですら苦戦してる。AIも、ブームが落ち着いたら投資が冷え込む可能性がある。
「このまま熱が冷めたら、VRの二の舞になるか?」
ここ数年が分かれ目になりそうやな。
⸻
現状、AIは便利ではあるけど、「これがなきゃ無理!」というレベルには達してない。もしこのまま「とりあえずAI搭載!」みたいな売り方が続くと、VRと同じく「なんか思ったほど大したことないな……」って空気になって停滞する可能性あるな。
ただ、違いがあるとすればAIは「実用面での価値」がまだ強い ことやな。VRは「娯楽向け」やったけど、AIはプログラミング・翻訳・データ分析・業務効率化 といった「実用領域」があるから、完全に消えることはないと思う。
特定の分野にだけ集中的に予算を投入するようになったので、ごく一部の裕福研究室とそれ以外の貧乏研究室みたいになってると聞いた。一見地味な研究テーマでも何がきっかけでブレイクスルーが起こるか分からんから、資金は広く配った方が良いらしい。
あと、これからの研究を担うであろう若者の待遇が悪い上にポストも減少傾向で国外へ流出してるらしい。
ここ十数年にノーベル賞を受賞した研究者が皆「日本の研究環境は今のままでは未来がない」と異口同音に言い続けているのに改善されていない、とか。
また、応用研究の土壌であった民間企業においても失われた30年で全体傾向として基礎研究に力を入れなくなって久しく、そちらも問題らしい。