2025-10-21

anond:20251021125857

何いってんだ?

ローカルLLM使えばいいじゃん。ローカルLLMだからインターネット接続不要情報が外部に漏れることが原理的に起こり得ない。

delphiとか過去技術の話なんだから、新しい情報不要インターネット検索する必要もない。

現時点の学習済みモデルなり、テキストとかマニュアルをあらかじめ全部ローカルに置くだけでAI機能するぞ。

性能に関しても、nVIdiaのH100程度のサーバ用意すれば、oss-gpt で150tokens/secぐらいでる。 150tokens/secだよ?どれくらいすごいか判る?

これで chat GPT 3.5よりは賢く、コーディングぐらいなら普通に実用レベルシステムが手に入る。

ポンコツ社員を一人リストラして、代わりにH100サーバを導入すれば電気代込でも半年で元が取れるぞ。

俺はH1004台買ってAIぶん回してる。すでに社員10人ぐらいの投資効果が出ている。これが今のAI世界だし、これから世界のあり方だ。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん