共有
  • 記事へのコメント14

    • 注目コメント
    • 新着コメント
    その他
    exciteB
    パンピーが趣味で使えるのは20万円(グラボ12GBくらい)

    その他
    yarumato
    “筆者が実務で使用しているローカルAIの活用例:whisper-large-v3-turboで動画を文字起こし(誤字脱字も多い)、gpt-oss-20bで要約(正確で自然な文章になる)してマインドマップを自動生成。ハードウェアはNVIDIA、60万円~”

    その他
    auto_chan
    でもお高いんでしょ?……やっぱり高かった。

    その他
    YaSuYuKi
    「メモリーが96GBあれば単体GPU向けのものは何でも動く」ことと低予算からRyzen AI Max搭載機(30万)を選択。Radeonの不利と速度不足はあるがLLM目的では高度な柔軟性が得られている。画像は生成してない(余力なし)

    その他
    fashi
    「Claude Codeが便利なのは、例えば新しいAIのモデルがtwitterタイムラインに流れてきた時(略)「これ動かしてよ」と言えば、動いてることです」

    その他
    princo_matsuri
    5090でも高いのにまだ遠い世界だ

    その他
    timetrain
    趣味で手を出せるのはMacがぎりぎりかねえ

    その他
    ardarim
    ardarim 「AIは「もともと知っている操作」に人間が「これは90度回転」とか「180度回転」とか名前をつけて共通項を見つけているのに近いのではないか」これは確かにそんな気がしている。fine tuningとはAIとの概念のすり合わせでは

    2025/12/03 リンク

    その他
    logic
    最終的にはここだけど大半の人にはまだ早い

    その他
    zsehnuy_cohriy
    radeon党なので苦難は多いがrocm7になってからは更に推論やら生成やらはぼちぼち普通に使える。しかしまあLMStudioにしてもComfyUIにしても楽になったもんですわね。普通の人はとりあえずVRAM16GBあれば楽しくやれると思うよ。

    その他
    MarvinParnroid
    それなりのマシンスペックが無いとローカルではかわいくならないって事ね。ちなみにM4 Mac miniだとStable Diffusion1.5の派生モデルあたりであれば画像生成して遊べます。あと無駄にGOROManさん無職扱いで笑

    その他
    c_shiika
    SillyTavernのはなしじゃなかった

    その他
    kenzy_n
    現行でどの道に進めばよいかの諮詢に富んだ投稿である。AIはまだまだこれから伸びていくのだろうか。

    その他
    mr_mayama
    “VRAMが32GBしかない” ってw/趣味でやるならずっとブン回すことも無いだろうしRunpodとかfalとか使った方が割安なのではと思ったりもしたけどローカルはロマンがあるから良いよね

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    ローカルAIかわいいよと言う話|shi3z

    ローカルAIとは?ローカルAIとは、手元、もしくは自分が管理するコンピュータで動作するAIのこと。反対語...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む