「イ・セドル」を含む日記 RSS

はてなキーワード: イ・セドルとは

2025-08-09

anond:20250809101745

それでも男には戦わなければならない時というものがあるんだ

イ・セドルを見習え

藤井聡太でも羽生善治でもいいけどさあ

くだんねーことやってないでさっさとAIガチ対決しろ

イ・セドルを見習え

2024-08-12

いま日本囲碁界で35年越しの偉業が成し遂げられるかもしれないのでもっと知られて欲しい

日本囲碁江戸時代以来、囲碁家元四家が俸禄をもらう立場となり、切磋琢磨をしてきて長らく囲碁の本場となっていた。

しか1980年代韓国に追いつかれると、1990年代では抜き去られ、以後差が縮めることをできずここ30年ほど後塵を排してきた

その差は依然として大きく、世界戦が開催されては日本棋士は大体二回戦までに全滅する、ということが続いてきていた

しかしここに来て最近日本勢の調子がいい

井山が爛柯杯にてベスト4まで進出すると、なんと応氏杯という4年に1度開催される囲碁オリンピックで一力遼が元世界1位棋士現在でもトップクラス棋士・柯潔を三番勝負で破り決勝へ進出したのだ!

これは1996年依田紀基以来、実に28年前ぶりの快挙だ

そして日本棋士はまだこの大会で優勝したことがなく

10回にして日本勢初の優勝がかかった決勝なのである

しかしこの快挙と大一番が全く日本中に知れ渡っていない

せっかく日本棋士が頑張っているのだからぜひこの快挙をもっと多くの人にしってほしいし、注目してもらいたい!

決勝は五番勝負8月12、14日 / 1024、26、28日に行われる

ぜひ、この決勝だけでもいいので注目してみてほしい

中継はYoutube日本棋院チャンネルで行われる

https://www.youtube.com/watch?v=_SBgCCOr1nQ

ぜひ拡散ブクマ頼む!!

パリオリンピックの次は囲碁オリンピックを楽しもう!

日本人が国際棋戦の決勝に行くなんて次いつあるかわからないよ!(ちなみに今回6年ぶり)

追記

8月12日 一力遼(25位 10.081)vs 謝科(16位 10.261)中国 終始優勢を崩さず進めるも相手の猛追を受け薄氷勝利

8月14日 一力遼(25位 10.081)vs 謝科(16位 10.261)中国 絶望局面から大逆転勝利を収め、日本28年ぶりの優勝へ王手

 9月8日※ 一力遼(25位 10.081)vs 謝科(16位 10.261)中国

 9月10日※ 一力遼(25位 10.081)vs 謝科(16位 10.261)中国

 9月12日※ 一力遼(25位 10.081)vs 謝科(16位 10.261)中国

(※日程変更反映)

日本勢、日本最後メジャー国際棋戦優勝

日本棋士最後の優勝→1997年 富士通杯 小林光一

日本所属棋士最後の優勝→2005年 LG杯 張栩

日本チーム最後の優勝→2005年 農心杯(各国5人勝ち抜き団体戦

日本勢19年ぶり、日本人として実に27年ぶりの優勝を懸けた戦いなのだ

応氏杯とは?

4年に一度開催される囲碁オリンピックワールドカップのような大会

応昌期という台湾富豪が始めた。

賞金は40万ドル(約6000万)

持ち時間が切れたら秒読みではなく、2目(ポイント相手にあげて代わりに時間をもらうという独自ルールあり(回数上限あり)

歴代決勝カード

第1回 1989年 曺薫鉉(韓国) 3-2 聶衛平(中国

第2回 1993年 徐奉洙(韓国) 3-2 大竹英雄日本

第3回 1996年 劉昌赫(韓国) 3-1 依田紀基日本)←この時以来の決勝進出

第4回 2001年 李昌鎬韓国) 3-1 常昊中国

第5回 2005年 常昊中国) 3-1 崔哲瀚韓国

第6回 2009年 崔哲瀚韓国) 3-1 李昌鎬韓国

第7回 2013年 范廷鈺(中国) 3-1 朴廷桓(韓国

第8回 2016年 唐韋星(中国) 3-2 朴廷桓(韓国

第9回 2023年 申眞諝(韓国) 2–0 謝科(中国

決勝カード プロフィール

一力遼(25位 10.081)河北新報御曹司取締役記者棋士二刀流日本1位。現在棋聖天元本因坊三冠

VS

謝科(16位 10.261)二大会連続決勝進出強者

一力遼VS謝科 対戦成績

2020-04-27 黒番 敗北

2021-01-10 黒番 敗北

2021-01-12 白番 敗北

2024-06-19 白番 敗北

通算 0勝4敗

勝率 0.000

レート差 .346

期待勝率 約 .410

一力遼、応氏杯ここまでの歩み

◯一力遼(339.882)vs 王元均(139位 8.759)台湾

◯一力遼(339.882)vs 屠暁宇八段(26位 10.023)中国

◯一力遼(339.882)vs 劉宇航(29位 9.986)中国

◯一力遼(339.882)vs 許嘉陽(1010.389)中国大会連続準決勝進出

●一力遼(339.882)vs 柯潔(3位 10.611)中国 準決勝番勝負#1

◯一力遼(339.882)vs 柯潔(3位 10.611)中国 準決勝番勝負#2

◯一力遼(339.882)vs 柯潔(3位 10.611)中国 準決勝番勝負#3 ←28年ぶり決勝進出

柯潔は、イ・セドルVSAlphaGoの1年後にさらなる強化をされたAlphaGoと打った元世界ナンバーワン棋士

世界トップ棋士を破っての堂々の決勝進出となった。

また柯潔相手に二連勝は日本棋士で初。

2024-06-05

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

2024-02-23

NVIDIAAIの小史

未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIA時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ半導体業界すみっこ人間なので機械学習まわりの説明適当です

・~1993年 AI冬の時代エージェントシステムがさほど成果を挙げられなかったり。まだ半導体メモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年ディープラーニング発明まで実質的な停滞は続く。

1993年 NVIDIA設立

1995年 NVIDIA最初グラフィックアクセラレータ製品NV1を発売。

1999年 NVIDIAGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAGPU業界1位の座を守り続ける。

2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティング活用しようという動きが続く。

2006年 ディープラーニング発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAI模索する動きが始まる(第3次AIブームのおこり)

2006年 CPU業界2位のAMDGPU業界2位のATIを買収、チップセットGPU統合することで事実上自社製品NVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPU統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品販売を終了し、データセンター向けGPGPUのTeslaシリーズゲーム用外付けGPUGeForceシリーズARMCPUと自社GPU統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代AIサーバ製品に直接つながる。GeForceシリーズゲーマー向け需要暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。

2012年 ディープラーニング画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。

2015年 AlphaGoイ・セドル勝利

2016年 NVIDIA自動運転向けシステムを発表。

2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカ計算機を使えばAIの性能が上がる時代突入

2018年 IBMNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPCハイパフォーマンスコンピューティング)におけるGPU地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。

・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル

2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体シングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負時代に入る。

2022年 NVIDIAがH100発表。Transformerモデル学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセス製造SK HynixHBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoC採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスモバイル製品向けプロセスクロック電流量が異なり、HPC向けはN4が最新と言ってよい。

2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。

2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。

2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業NVIDIA H100の大量調達に動く。

2024年 NVIDIA時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。

こうして見るとNVIDIAにとっての転換点は「ディープラーニング発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセット販売からコンピューティングユニット販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAゲーマー向け製品モバイル向け製品販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。

 
ログイン ユーザー登録
ようこそ ゲスト さん