テキストデータに対してアノテーションを行う、という作業が数年前は盛んだった 感情分析とかね。あれは、実際には手作業じゃなく、X投稿の絵文字をラベルにして半自動化した では...
数年前からニューラルネットワークでやってたで 本業じゃないけど勉強した時にやった 超得意分野やんけ
ニューラルネットなんてレベル低い話してないぞ アノテーションってのは、手作業でテキストにラベル付けする作業のこと 大規模言語モデルの性能が高くなってきたから、それが手作業...
ロジスティック回帰なんかよりは全然先の話やで
頭大丈夫か? 蒸留でモデル圧縮する話なんだから、ロジスティック回帰って例を出したんだぞ?
機械学習を学ぶ時にロジスティック回帰はまず基本としてやってその後ニューラルネットワークにディープラーニングとなってくもんやで
そういう大学生みたいな話はしてねーよ ロジスティック回帰のほうがNNよりも明らかに軽量だから、LLM本体を使うよりも便利な場合があるって話だぞ 物事をそのレベルで分類する馬鹿は...
その大規模言語モデルがニューラルネットワークやで ディープラーニングがとか出てきたのはもう10年近く前やろ
LLMがNNじゃないと思ってるやつがいて、正直当惑するわな
「ニューラルネット」って単語をもう出さないだろ、LLMなんて思考停止でTransformerに突っ込む前提なんだから
何もわかってないねチミ
君クローラー作ってる人だよね?
横だけど既に自動化されてるで
もうLLMがあれば人間アノテータの人件費もいらんのかな?
トレーニングデータつくるのにはいるかも? 感情分析はもうさんざやり尽くされてるだろうけど 専門じゃないから詳しくはないけどスパムの仕分けとかも何年も前からAIのはずやで 俺が...
文脈理解してないでしょ? スパム判定なんてのはスパムラベルのフィードバックを教師学習させればいいだけなんだよ そうじゃなくて、アノテーションを手作業で行う問題を、AIによっ...
ラベルが一つか複数かの違いだけやで
ちげーよ ラベルが半自動フィードバックか、手作業アノテーションかの違いって言ってるだろ馬鹿
君一回ちゃんと機械学習習ったほうがいいよ 微分と線形代数と統計ちょっとわかれば半年くらいでわかるから
そんな基本的な数学の話をするのなんて大学生だろお前? ケツが青いんだよね 機械学習についての経緯を本当に理解してるなら、Amazonのクラウドソーシングで安い人件費使って手作業の...
毎回君はそうだが俺はそもそも機械学習は専門ではないぞ? 君のが現場なんじゃない? 俺アーキテクトでそこそこ大規模システムの設計開発とかそっちの方だし ただ海外ではそういう...
お前は文脈をまず理解してからにしろよ まず以下のタスクがある。 「経済のポジネガ判定」 これは逐一LLMを使うと時間がかかるし、かといって「ポジとネガ」を表すラベルをdistant superv...
またレガシーコード移行増田?
ちみは色んな言葉は知ってるみたいだけど、それぞれが派生物なのか全くの別のものなのかといった系統だった理解が全然出来てないね わいは横から口出ししてるだけだけど、この手の...
だからさ、まず「手作業でクラウドソーシングでアノテーションをしていた頃」ってのがあったのを知ってる奴じゃないと話にならねぇの んで、LLMでそれは自動化して蒸留することがで...
そういのはLLM以前から普通にやってます、って話なんだけど
おいおい、LLMで自動アノテーションって話をしてるんだから、LLM以前には不可能だろ
大概の問題はLLM無しで自動アノテーションなんてできないと思うが
LLMでラベル付けしてそれを元にリグレッションやってるのを君独自に蒸留って読んでるんやろ? それ素人の我流やろ それでも結果出してるならいいけどさ だったらフォーラムとかで発...
まず「独自に蒸留と呼んでる」「素人の我流」とか言っているが、知識蒸留の本質は複雑モデルの出力を教師データ化して軽量モデルを訓練することだ。 LLMでラベル付けして、それを回...
「自分が知らないから他人が間違えてる」と考える奴は無能 https://snorkel.ai/blog/llm-distillation-demystified-a-complete-guide/
興味ないね
また魔晄中毒?
ナイーブベイズによるスパム判別フィルタとか2000年代前半には既にあったな
数年前と言われても、AIアノテーションはLLMが本領発揮してからだろうし
感情分析とかは比較的簡単な部類やで
追記: 文脈理解できない馬鹿が多いのでGitHubリンク貼るね https://github.com/Zhen-Tan-dmml/LLM4Annotation
追記: 文脈理解できない馬鹿が多いのでGitHubリンク貼るね https://github.com/Zhen-Tan-dmml/LLM4Annotation
追記: 文脈理解できない馬鹿が多いのでGitHubリンク貼るね https://github.com/Zhen-Tan-dmml/LLM4Annotation
追記2: LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ
追記2: LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ
追記2: LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ
はい、それは「知識の蒸留(Knowledge Distillation)」と呼ばれる、非常に強力で実用的な技術です。 巨大で高性能なLLM(先生モデル)が持つ特定の能力だけを、ロジスティック回帰のような...