共有
  • 記事へのコメント9

    • 注目コメント
    • 新着コメント
    その他
    pekee-nuee-nuee
    みてみるか

    その他
    soratokimitonoaidani
    あとで見る

    その他
    ducky19999
    πがかわいい

    その他
    Coolions
    仮想通貨の仕組みはここの動画で学びました

    その他
    sek_165
    sek_165 次の単語を予測するのはTransformerではなくGPTの学習方法。Transformerの中のSelf Attentionはある単語との関連が大きい単語に重み付けしているだけ。

    2024/04/17 リンク

    その他
    jssei
    動画もあとで見る。

    その他
    T-norf
    T-norf 第1層では確かにTransformerのattention機構は単語間の関係性を出現位置に関わらず符号化してるけど、元論文の時点でそれが数層重なってるし、GPT3.5だと数十層も重なってるので、奥の方では単語によらず処理してると思うよ

    2024/04/17 リンク

    その他
    syu614
    日本語バージョンもよろしく頼む

    その他
    tanority
    このチャンネル好き

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される

    さまざまな数学的トピックをムービー形式で解説するサイト「3Blue1Brown」において、ChatGPTに代表され...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む