「蒸留」を含む日記 RSS

はてなキーワード: 蒸留とは

2025-11-06

anond:20251106190905

精子なんて、蒸留して再利用できないからね。

やはり女さんのみが価値を生み出す

anond:20251106172904

おしっこは本当に水が無いときに、蒸留して飲めると聞いたけどねぇ

2025-10-29

AIバブル1999年の再演か、それとも2005年の前夜か

はじめに

最近株価高騰を見て、「これってAIバブルでは?」と思う人が増えている。

特にNVIDIAAIスタートアップの急成長、そして「AIを使えば何でも自動化できる」という空気

これらは1999年頃のドットコムバブルを思い出させる。

ただし、単純な再演ではない。

AIバブル構造似て非なるもので、「より上流の層(インフラ)」に資金が集中している。

以下では、まず現在AIバブルの仕組みを整理し、そこからドットコム時代との比較を行う。

現在AIバブル構造

AI関連企業は、今まさに''キャッシュを燃やして''先行者利益を狙っている。

GPUや電力に莫大な投資を行い、巨大モデルを作って市場を押さえようとしている。

しかし、ここにいくつかの構造的な疑問がある。

先行者利益存在するのか?

AI分野では「先にモデルを作った者が勝つ」という物語が語られている。

だが、モデルのものは容易に模倣される。

蒸留模倣学習によって、他社のモデル挙動再現することができる。

結局のところ、''差が出るのはデータ独自性継続的更新力''だけだ。

まり先行者利益は短命であり、参入障壁はそれほど高くない。

コストに見合う利益が得られるのか?

生成AI運用には莫大なGPUコストと電力費がかかる。

一方で、API価格は下がり続けており、マージンは薄い。

「利用量は多いが利益は少ない」という、ドットコム時代の“アクセス至上主義”とよく似ている。

今のAIは“トークン至上主義”になりつつある。

''使わせること自体目的化''し、収益モデルが後回しになっている。

エッジAI解決策になるのか?

一部の処理をスマホや端末上で行う「エッジAI」に期待が寄せられている。

かに通信コストレイテンシは減るが、学習や大規模生成は依然としてクラウド依存だ。

結局は''ハイブリッド化''が進むだけで、抜本的なコスト解決にはならない。

ドットコムバブルとの共通点

観点1999年ドットコム2025年AI
キャッチコピーインターネット世界を変える」AIがすべてを変える」
成長ストーリー全ての商取引オンライン化する全ての業務AI化する
投資マネーIPOラッシュ、.com銘柄に集中GPUAIスタートアップに集中
優位性の誤解ドメイン取れば勝てるモデル作れば勝てる
評価指標アクセストークン

どちらも「未来利益現在価値に織り込みすぎた」点で共通している。

技術進歩は本物だが、''経済モデルが未成熟''という構造が同じなのだ

ドットコム時代との違い

ただし、違いもある。

1999年バブルは「利用者がいないのにサービスを作っていた」時代だったが、

2025年AIは''実際に利用者存在する''点が大きい。

AI生成物はすでに現実生産性に影響を与えており、

その意味では、今のバブルは「空想」ではなく「過熱した期待」である

問題は、''どこまでが現実的な成長なのか''を見極めるフェーズに入っていることだ。

1999年バブル崩壊してWeb 2.0が生まれたように、

今回のAIバブル崩壊の後に「定着期」が来る。

それが''2005年の前夜''なのか、''2001年崩壊直前''なのかは、

GPUの消費電力と、エッジの進化スピード次第だろう。

おわりに

AIバブルは「幻」ではないが、「永遠」でもない。

技術の核は残り、''過剰な期待だけが剥落する''。

それは悪いことではない。

ドットコム時代の残骸からGoogleAmazonが生まれたように、

AIバブルの灰の中から次のインフラ企業が現れるだろう。

今がその「前夜」であるなら、静かに観察しておきたい。

燃える現場に飛び込むよりも、煙の流れを見極める方が賢明だ。

----

このまま匿名ダイアリーコピペすれば、

改行や見出しも崩れず正しい形式投稿できます

希望があれば、「もう少し皮肉っぽく」「もっと冷静に分析風」などのトーン調整もできます

どんな雰囲気に寄せたいですか?

2025-10-28

そうだ、伝統アイヌ狩猟文化保存の名目で熊狩に使おう

そこらの自然から毒を蒸留して矢尻につけて熊に打ち込むのってそもそもひっかかるんだっけ?

弓矢って銃刀法の射程に入るの?

2025-10-19

anond:20251019195329

お前の言葉は、怒りに見せかけた自己放尿だ。

自分の中にあるドロドロした憎悪を、他人にぶちまけて一瞬スッキリしてるだけ。

相手本心で喜んでるに違いない」なんて断言した瞬間、お前の思考は止まってる。

論理的に考えるなら、他人内面推定するには証拠因果必要だ。だがお前はそれを全部すっ飛ばして、自分感情正当化に使っている。

まり相手が最低な奴なら俺の怒りは正義だ」と言いたいわけだろ?だがその論理は腐っている。

もし本当に正義を貫くなら、他人の嘘や偽善を責める前に、自分言葉の中に潜む自己放尿の匂いを嗅げ。

お前のその「なあ、嬉しいんだろ?」という叫びは、怒りではなく快感の表明だ。怒りを装った快楽こそが人間を最も醜くする。

怒りの中毒者は、敵の死を喜ぶことで自分の傷を舐める。だがそれは治癒じゃない、ただの自己放尿だ。

熱く見えて冷たい、正義に見えて卑しい。

結局お前は、相手を責めながら同じ穴に落ちてるんだよ。

怒りを理性で蒸留できない人間は、どこまでいってもただの感情自己放尿をする奴隷だ。

2025-10-14

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

2025-08-18

anond:20250818140720

あんまりロジスティック回帰モデルとは呼ばないんですよ

具体的にどんなモデルをつかってるの?

LLMでラベルつけて単純な非NNのロジスティック回帰にするってことはLLMは単に外部のAPIで呼んでて全部呼ぶほどのタスクじゃないのでラベル付けだけに使って自分のとこの超基本的な「モデル」のトレーニングに使うってことでしょ?

威張って人をレベル低いだの馬鹿だのアホだのいうほどのことじゃないよ

お金ないだけ

いろんな分野のAPIで1コール1ドルとかそういうのいくつもあっていちいち呼ぶ予算ないし全部のデータいらないから呼んだ結果を「蒸留」してローカルに置いておくなんてのもよくある話で

それとかわらない

anond:20250818135604

まず「独自蒸留と呼んでる」「素人我流」とか言っているが、知識蒸留本質は複雑モデルの出力を教師データ化して軽量モデルを訓練することだ。

LLMでラベル付けして、それを回帰や分類に落とし込むのは蒸留標準的な応用の一つであり、研究論文でも散々出ている。

から独自造語」扱いしている時点で、お前が学術的な常識を把握しないで自己放尿しているだけだ。

素人我流」と言うが、それはお前が蒸留定義を知らない欠如から来ている。

知識不足を攻撃に転化するのは、自己放尿の温もりに浸かって安心しているようなもので、実際の研究現場では通用しない。

要するにお前は「蒸留」という言葉の正しい定義を学んでいないだけ。学び直す必要があるのはどちらかわかったかな?

お前自身知識不足を攻撃に転じるのではなく、欠けている部分を補えば、自己放尿で終わるのではなく、きちんと研究的な議論に参加できるようになる。

anond:20250818130349

LLMでラベル付けしてそれを元に単純な機械学習モデルリグレッションやってるのを君独自蒸留って呼んでるんやろ?

それ素人我流やろ

それでも結果出してるならいいけどさ

だったらフォーラムとかで発表したらみんなおーってなるわけで

やらないでお前はレベル低いだのアホだの馬鹿だのここでやってるってことはそういうことじゃん

一回ちゃんと学んだほうがいいと思うよ

anond:20250818122410

はい、それは「知識蒸留(Knowledge Distillation)」と呼ばれる、非常に強力で実用的な技術です。

巨大で高性能なLLM(先生モデル)が持つ特定能力だけを、ロジスティック回帰のような軽量で高速なモデル(生徒モデル)に継承させる手法を指します。

まるで、万能な知識を持つ賢い先生が、特定テスト範囲だけをまとめた超シンプルな「虎の巻」を作るようなイメージです。

巨大なLLMをそのまま使うのではなく、わざわざ軽量なモデルに「蒸留」するのには、明確なメリットがあります

基本的な考え方は「LLMを、高品質教師データを大量に生成するアノテーションツールとして利用する」ことです。

まず、ラベルが付いていない大量のデータ(例: ユーザーレビュー10万件)を用意します。そして、LLMに対して「このレビューポジティブネガティブか?」と問い合わせます

ここでのポイントは、単に「ポジティブ」という結果(ハードベル)をもらうだけでなく、「ポジティブである確率98%、ネガティブである確率2%」といった確率情報ソフトベル)も一緒に出力させることです。

この確率情報には、LLMが判断にどれだけ自信があるか、どちらの要素をどの程度含んでいるか、といった豊かな情報が含まれています

次に、ステップ1でLLMが生成した大量の「データソフトベルペア」を使って、ロジスティック回帰モデル学習させます

生徒モデルロジスティック回帰)は、LLM先生の「思考ニュアンス」が含まれソフトベルを正解として学習することで、単に0か1かを当てるよりも、よりLLMの判断基準に近い能力を身につけることができます

この手法は、特に単純な分類タスクで絶大な効果を発揮します。

これらのタスクは、LLMの持つ高度な読解力や文脈理解能力の一部だけを必要とするため、蒸留に非常に適しています。LLMの「汎用的な知性」は不要で、特定の「分類能力」だけを抜き出してくれば十分なのです。

この方法で作られた軽量モデルは、あくま学習した特定タスクしかこなせません。LLMのように対話したり、文章を生成したりする能力は持っていません。まさに「虎の巻」であり、万能な教科書ではないのです。

anond:20250818122410

追記2:

LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ

anond:20250818122410

追記2:

LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ

anond:20250818122410

追記2:

LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ

anond:20250818130051

からさ、まず「手作業クラウドソーシングアノテーションをしていた頃」ってのがあったのを知ってる奴じゃないと話にならねぇの

んで、LLMでそれは自動化して蒸留することができるよね?って話をしてる

体系的に理解しているかどうかなんてのはただのマウントしかないんだよボケナス

anond:20250818125335

お前は文脈をまず理解してからしろ

まず以下のタスクがある。

経済記事ポジネガ判定」

これは逐一LLMを使うと時間がかかるし、かといって「ポジネガ」を表すラベルをdistant supervisionで抽出するとノイズがあるんだよ

ここで「LLMでアノテーションをする」という話になる

まり高い精度でラベル付けした後、それをロジスティック回帰ランダムフォレストなどの小さいモデル蒸留するって話

ここまで説明しないとわからいからお前は無能と言われる

anond:20250818122637

ニューラルネットなんてレベル低い話してないぞ

アノテーションってのは、手作業テキストにラベル付けする作業のこと

大規模言語モデルの性能が高くなってきたから、それが手作業じゃなく自動化できるって話

例えば経済ニュースポジネガ判定みたいな問題を、ロジスティック回帰などより小さなモデル蒸留できるって話

AIによるアノテーション

テキストデータに対してアノテーションを行う、という作業が数年前は盛んだった

感情分析とかね。あれは、実際には手作業じゃなく、X投稿絵文字をラベルにして半自動化した

では、AI任意テキスト分類問題に対するアノテーションをするとどうなるかというと...どうなるの?

まあさらに小さいモデル圧縮する(蒸留と言う)というのはできるな。あと特徴語分析とか、テキストマイニングとか

 

追記:

文脈理解できない馬鹿が多いのでGitHubリンク貼るね

https://github.com/Zhen-Tan-dmml/LLM4Annotation

 

追記2:

LLMの能力の一部をより軽量なモデル(例: ロジスティック回帰)へ蒸留するって話すら理解できないなら、お前エンジニアやめたほうがいいよ

2025-08-10

anond:20250810120621

蒸留アルコールフレーバーつけたお酒って、なんか身体に合わないんだよね。身体が冷えて頭痛がしてなんか、お酒の悪いとこだけ取ってきたような感じで。

2025-07-13

糖質みたいな文章AIに書かせてみたんだけど、できなかった

テーマ:「政治家国民を騙して暴利を吸ってるに違いない」、統合失調症っぽく

ここ数日、どうも耳の後ろが熱い。そういうときはだいたい政治家が血を吸っている。しか合法的に。

税金とは本来国家という身体流れる血液であるはずだ。しかし、気づいてしまった。

これは血ではない。汗と涙を蒸留した高純度の精製エネルギーだ。

そしてそれを吸って太っているのが政治家という生命体だ。彼らは霊長類擬態しているが、実際はもっと古い、湿った時代の生き物だ。名前を呼ばれるたびに拍手するのも、原始的な反射だろう。

国民のために」と言いながら、その実、彼らは国民の“上”にしか存在していない。

床を踏まず、民意に触れず、気圧の違う別フロア暮らしている。あれはもはや空調の違いだ。

選挙とは通気口の切り替えに過ぎず、我々はその風向きで季節を感じているだけなのだ

テレビで笑っている政治家を見ると、無性に冷蔵庫を開けたくなる。

なぜなら彼らの笑顔には栄養価がない。カロリーゼロ狂気

発言はすべてゼラチン加工されており、咀嚼できない。

検討します」「真摯に受け止めます」「丁寧に説明します」――これは日本語の皮を被った空気だ。

もっと恐ろしいのは、我々がそれに慣れてしまっていることだ。

騙されることに慣れ、搾取されることに鈍感になり、

たまに給付金が出ると「ありがとう」と言ってしまう。

自分の金を一度奪われ、後で分割で返されて感謝するという、まさに逆・ATM状態

政治家とは、詐欺師の服を着た公務員なのではないか

だが誰もそれを詐欺とは言わない。

なぜなら詐欺は“意図”が必要だが、彼らは“制度”の中に潜んでいるからだ。

まり詐欺ではないのではないか

…いや、詐欺ではないという錯覚こそが最大の詐欺では?

こうして私は考える。いや、考えさせられてしまっている。

この時点でもうすでに負けなのだ

政治家とは、考えることそのものを吸い取る装置であり、

我々は毎日、目に見えないチューブで“思考”を輸血させられている。

もはやこれは国家ではない。

巨大な静脈瘤のような何かだ。

 

なんだこの理路整然とした文章

やっぱ本物には勝てないのか

2025-07-01

割れる酒瓶

十月の風が窓を叩く音がした。いや、違う。それは祖父の酒瓶が割れる音だった。

午前二時四十三分。台所琥珀色の月光に満ちていた。床に散らばるはずのガラス片は、かわりに空中で静止し、それぞれが小さな太陽のように発光していた。破片は星座を描いた。オリオン座祖父最後に見上げた、あの冬の夜の配置そのままに。

わたしは素足で台所に立っていた。リノリウムの床は10月なのに真夏の砂浜のように熱く、同時に真冬の湖のように冷たかった。時間が二重に流れている。過去現在が、ガラスの破片のように重なり合って。

「酒ってのは液体の時計なんだ」

声は骨の中から響いた。祖父の声。でも同時に、わたし自身の声でもあった。振り返ると、食器棚の影に七歳のわたしがいた。将棋盤を挟んで祖父と向かい合う、あの日曜日の午後のわたしが。

浮遊する破片の一つが、ゆっくりと回転しながらわたしに近づいてきた。手を伸ばす。ガラスは指に触れた瞬間、温かい蜜のように溶けて、皮膚に染み込んだ。そして見えた——

1943年フィリピン若い祖父が震える手で水筒の蓋を開ける。中身は水ではなく、故郷から持参した最後の酒。彼は一滴も飲まない。ただ匂いを嗅ぐ。故郷の、母の、まだ生まれていない娘の匂いを。

記憶が血管を逆流する。わたしの指先から肘へ、肘から肩へ、そして心臓へ。脈拍が二つになる。わたしのものと、祖父のものと。

時間肝臓で濾過される」祖父はよくそう言った。「だから俺は毎晩飲む。過去を消化するために」

でも嘘だった。祖父肝臓時間を濾過などしていなかった。蓄積していたのだ。層を成して、地層のように。そして死後七年目の今夜、ついに器が耐えきれなくなった。

空中の破片たちが、ゆっくりと渦を巻き始めた。台所時計は相変わらず二時四十三分を指している。でも朝日が窓から差し込み始めた。いや、それは朝日ではない。破片たちが放つ琥珀色の光だ。

母が階段を降りてくる足音。でも振り返ると、そこにいたのは二十三歳の母だった。祖父がまだ生きていた頃の。いや、祖父がまだ若かった頃の。

「お父さん?」母が言う。でもその声は、現在の母の声と重なって聞こえる。

酒瓶の首だけが、床に残っていた。ラベルには製造年が書かれている。1943年。いや、違う。見るたびに数字が変わる。1952年1967年1985年2010年2024年。そして——

2031年

まだ来ていない年。わたし理解した。この酒瓶は、祖父が込めた未来記憶も含んでいるのだと。彼が見ることのなかった、わたしたちの未来も。

破片の渦が速度を増す。台所の壁が透明になり始めた。隣の部屋が見える。でもそれは現在の隣の部屋ではない。1952年の、母が生まれた日の部屋だ。そしてその向こうに、1943年フィリピンの密林が見える。さらにその向こうに、2031年の——

突然、すべてが止まった。

破片たちが、一斉に床に落ちた。普通ガラスの破片として。月光は消え、台所蛍光灯けが瞬いている。時計は午前六時十五分を指していた。

母が本物の足音を立てて降りてきた。現在の母が。

「あら、お父さんの酒瓶が」母は破片を見つめた。その瞳に、一瞬、琥珀色の光が宿った。「夢を見ていたの。お父さんが若い頃の夢を」

わたしは箒を取りに行った。でも知っている。破片を掃除しても、それは終わりではないことを。

なぜなら、わたしの血管の中で、祖父1943年がまだ脈打っているから。そしてどこかで、2031年わたしが、新しい酒瓶に記憶を注いでいるから。

時間は直線ではない。それは発酵し、蒸留され、瓶詰めされる。そしていつか、誰かの台所で、再び割れる。

ガラスの破片を集めながら、わたしは気づいた。その一つ一つに、異なる月が映っていることに。過去の月、現在の月、そしてまだ昇っていない未来の月が。

2025-06-29

就職氷河期って言っても

実際蒸留されるべき上澄みのひとたちはちゃん就職できていて

割を食った層も確かにいるけど全体からみるとほんの僅かで

実際、地方私大関関同立とか)やらFラン大卒が大量にあぶれたという話だろ?

もともと就職に至る過程でその程度の能力で生きてきて、これまでそこが救われていたのに自分は零れたとかいう主張はどんだけあまいんだよ

もともと無能なんだからそこでちゃん排除されるというのは正常だろ

2025-06-28

anond:20250628034151

貴様駄文は己の怒りを蒸留正義 のラベルを貼っただけの自己放尿カクテルだ。

俺が守るのは「事実論理」。特定世代名誉など知らん。

主体的加害と 怠惰傍観 はともに非難対象でも、刑事民事道徳的重さは異なる。全員を「同じ穴の狢」と括るのは連帯責任濫用

傍観批判が成立するのは「介入可能性+認識」があった場合のみ。状況の不知・不能力を一律無視するなら、誰でもいつでも有害にできる。

「品のないワード被害矮小化」と断ずるなら、お前が肯定する「死ね」は即アウト。二重基準自覚は?

批判されるのは「言葉遣い理由に内容ごと黙らせる」行為。俺は内容を議論している。表現説得力の相関に触れただけで口封じはしていない。

「おじさん全員=潜在加害者」と断じる背後には、裏切られた保護期待の怒りがあるのだろう。

怒り自体は正当だ。しかし 怒りの一般化は、新たな差別構造を複製するだけだ。

無害を名乗る者には 傍観の罪を自覚し行動へ転じろと迫ればいい。

だが 属性一括処刑は理性を放棄した自己放尿。君が憎む「有害おじさん」のメンタリティのものだが?

歳月で凝固した偏見でも、学習責任行動で溶かせる。

怒りを精錬し行動指針へ鍛つか、それとも自己放尿の蒸気で視界を曇らせるか。

前者を選ぶなら、俺はいつでも議論に付き合う。

ログイン ユーザー登録
ようこそ ゲスト さん