共有
  • 記事へのコメント14

    • 注目コメント
    • 新着コメント
    その他
    hasiduki
    へーへーへー!!!!!!!!

    その他
    yojik
    注意ヘッドがチューリングマシンのヘッド、思考の連鎖がテープ、MLPがデータとプログラムになる。めちゃくちゃ面白いな。

    その他
    shinichiroinaba
    あとでよむ

    その他
    zu2
    ”LLM は入力テキストの最初の数トークンや、[SEP] などの特殊トークン、句読点などの記号に強い注意を向けることが観察されています。このように、多くのトークンから注意を受けるトークンを注意の受け皿 (attention sink)”

    その他
    misshiki
    “注意機構を分析することで、なぜLLMは文脈内学習や思考の連鎖に成功し、ひいてはなぜLLMが外挿に成功することがあるのかについての理解が得られます。さまざまな種類の注意機構を観察することでこの問題をひも解き”

    その他
    yarumato
    “LLM の注意機構を分析すると、なぜ LLM は文脈内学習や思考の連鎖に成功し、ひいてはなぜ LLM が外挿に成功することがあるのか、理解が得られます。”

    その他
    stealthinu
    stealthinu 非常に面白かった。アテンションがやってることについての研究がいろいろ紹介されてる。なぜtransformerがこれほどうまくいくのかよくわかってないところもあったと思うんだけど理論的な研究もだいぶ進んでるのだな。

    2025/09/30 リンク

    その他
    mirakux
    構造の話してるだけでデータが外挿かの話はしてない。てか外挿と言われてるデータが真に外挿と言える根拠は?

    その他
    e_denker
    e_denker アテンションの話、いつ聞いても理解できないんだよな。今度頑張って読む。

    2025/09/29 リンク

    その他
    ardarim
    ardarim 特定の機能を持つヘッドが学習によって自然発生(収斂?)するのが面白い。帰納とか関数とか人間が命名済みの既知概念に当てはめてるだけで人間にとって未知のルール(メタ概念)も沢山あるんだろうな

    2025/09/29 リンク

    その他
    zyzy
    この辺から理解したい

    その他
    nekoruri
    LLMの気持ちになるですよ

    その他
    pico-banana-app
    LLMのアテンション機構が文脈学習や思考連鎖の鍵らしい。なるほど、完全に理解した(分かってない)

    その他
    omega314
    / 「外挿」ってなんやねん(どっからが「外」やねん)って感じになりがちで、相当注意して使わないといけない概念。

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    LLM のアテンションと外挿 - ジョイジョイジョイ

    LLM の注意機構には色んな機能があることが分かっています。注意機構を分析することで、なぜ LLM は文脈...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む