はてなキーワード: スケールとは
食パン5枚切りにジャムとマーガリン塗ったものって250kcalじゃ済まないのでは?
そうだとしたら元増田は1日に3回食パンを食べているので、摂取カロリーの誤差が +150〜300kcal あることになる。
1回クッキングスケールを使って自分が1回に何gのジャムとマーガリンを使っていて、それぞれ何kcalあるのかを調べてみては。
お好み焼きは栄養成分表示のある既製品(冷凍食品など)? それとも手作り?
自分もお好み焼き粉 50gの分量で1人前よく作るけど、卵にキャベツに天かすとチーズ、カロリーハーフマヨネーズとお好みソースまで全て重さを計ってカロリー計算してる(ちなみに焼くときにテフロンフライパンを使うので油は敷かない。これで合計550kcal)。
まさしくその通りで、自分でも書きながら少々気恥ずかしく思っていました。何しろ、本当に地道で目立たないことをしている人間が、自分の内面を語り始めると、どうしても話のスケールを大きくしてしまわないと、文章として成立しないのですね。
現実の俺なんて、コーヒーをすすってパソコンの前で唸っている時間の方がずっと長い、もっと地味で、おおげささとは真逆の存在です。河川敷のウォーキングだって、途中でコンビニに寄って肉まんを買うかどうかで延々悩んでいる程度のレベルですよ。
ただ、若い頃には「恥ずかしい」と思っていた、この「おおげさに語らないと自分を保てない」不器用さも、結局のところ、俺の「素直さ」の裏返しなのかもしれません。斜に構えることができないから、全てを真正面から受け止めて、ちょっと大げさな言葉で「頑張っているフリ」でもしないと、心が持たない。
でも、この「おおげさな初老」の文章が、少しでも誰かの心を動かしたのなら、この程度の見栄なら許してもらえるでしょうか。
...なんて、また大げさなことを言ってしまいましたね。ご指摘ありがとうございました。おかげでまた一つ、自分の情けなさを再認識できました。
https://x.com/miyoshiiii/status/1987015532324004043?s=46
この女性に対して悪意を言い、周囲から嫌われるような描写を詳細に書きつつ、自分は批判してないよという態度を取るツイートは陰湿であるかどうか。
指定されたX投稿(https://x.com/miyoshiiii/status/1987015532324004043?s=46)では、作者がグループ作業中に出会った特定の女性の行動について詳細に記述しています。その女性は、指示を待つ姿勢やリーダーではない男性の近くにいること、笑顔や過剰な反応を示す態度を特徴として挙げており、これを「女の子としてそうあるべき」という教育の結果だと推測しています。作者は、この行動が周囲との軋轢を生む可能性を指摘しつつも、「本人が意図的に他者を利用しているわけではない」と述べており、直接的な批判を避ける姿勢を見せています。
「陰湿」という言葉は、暗くじめじめした雰囲気や、陰気で晴れやかでない態度、またそのような意図的な嫌味や裏表のある行動を指します。ここでは、陰湿さを評価するための基準を以下のように設定します:
2. **受動的攻撃性**: 直接的な批判を避けつつ、間接的に相手を貶める表現があるか。
3. **隠れた批判**: 表面的に中立を装いつつ、相手の欠点や問題を強調しているか。
これらを基に、0点(全く陰湿でない)から10点(非常に陰湿)のスケールで評価します。
これらの要素を総合すると、陰湿さのスコアは **4/10** となります。作者は直接的な攻撃や悪意を避け、自己反省的なトーンを保つことで陰湿さを抑えていますが、詳細な描写と潜在的な問題提起が受動的攻撃性や隠れた批判として機能し、軽度ながら陰湿な印象を与える可能性があります。
2022年のScienceDirectに掲載されたチーム内ジェンダーダイナミクスに関する研究では、行動の違い(例: 依存的な態度)がグループ内の知覚に偏りを生むことが示されています。この投稿の観察は、その研究と一致しており、女性の行動が誤解されやすい文脈を反映していると言えます。ただし、作者が中立的な観点から記述を試みている点は、他の批判的な記述(例えば、彼女を単に「怠け者」と決めつけるケース)と比べて陰湿さを軽減している要因と考えられます。
#### 結論
このツイートは、陰湿さの基準に部分的に該当するものの、明らかな悪意や攻撃性がないため、4/10という中程度の評価が適切です。読者がどのように受け取るかは個々の解釈に依存しますが、作者の意図としては批判よりも観察と考察が主目的であると推測されます。
AQ(オートイズム・スペクトラム・クオシェント)とは、2001年にサイモン・バロン=コーエンによって開発された自己評価式の50問の質問票で、自閉症スペクトラム障害(ASD)の特性を測定するために使用されます。このテストは、社会的スキル、コミュニケーション、想像力などの領域を評価し、高機能自閉症やアスペルガー障害を含むASDの特徴をスクリーニングするのに役立ちます。科学者や数学者などの多様なグループで検証されており、臨床および研究の場で広く活用されていますが、ASDの経験の多様性を完全に捉えていないという批判もあります。
@noir_ismさんのX投稿では、ASDにおける想像力の概念が議論されており、AQの「想像力」サブスケールに触れています。この投稿では、ASDの方が共感的な想像力よりも創造的な想像力に優れている可能性が示唆されており、2015年のWIREs Cognitive Scienceに掲載された研究(オキシトシンが創造性を高めることを示す)とも一致しています。また、2020年のPMC研究では、RMET(心の目を読み取るテスト)と想像力サブスケールの相関が社会性よりも強いことが示されており、ASDにおける想像力の再評価を支持しています。
さらに、この投稿は日本特有の文化的文脈にも影響を受けている可能性があります。2025年の名古屋大学の研究によると、日本では共感に対する期待が低い傾向があり、これがASDの方の想像力に対する認識に影響を与えているかもしれません。投稿では、ASDの診断基準における「想像力の問題」を再考する議論の一環として、共感的な想像力と創造的な想像力の違いに注目しており、当事者の視点や多様性を考慮した議論を展開しています。
90年代の「サブカル優勢」から「オタク文化の圧勝」への転換は、ざっくり言うと以下の力学が重なった結果だと思う。
作品より“キャラクター”の継続消費(推し活)が拡散・可視化しやすい。MAD/二次創作→SNS→公式展開の循環が強かった。
[2] 反復消費モデルの強さ(シリーズ化・ソシャゲ・グッズ)
ガチャ・ライブ・2.5次元舞台・イベント・コラボカフェ…同一IPで何度も課金/参加できる仕組みが整備。収益の再投資でIPがさらに巨大化。
ファン字幕→公式配信→世界同時上映へ。国内ニッチが海外需要で“メジャー並み”の規模に。
強いエンゲージメントを生むジャンルがレコメンドに乗る。コアファンの熱量がそのまま可視化・拡散力になる。
90年代サブカルは雑誌・セレクトショップ的な編集=ゲートキーパー依存。雑誌衰退とともに拠点を失い、オタクはコミケ/同人即売会/SNS/配信で自前の分配網を持った。
同人・二次創作・コスプレ・ファンイベントなど、作り手と受け手が往復する設計。参加コストが下がり、定着率が上がった。
深夜アニメの一般化、秋葉・池袋の観光資源化、「クールジャパン」文脈等で社会的許容が拡大。羞恥コストが低下。
原作(漫画/ラノベ)→アニメ→ゲーム→舞台→実写→海外、の水平展開が定式化。投資判断がしやすく、外部資本が入りやすい。
[9] 景気・労働環境の変化と“内向き娯楽”
長時間/低予算でも深く楽しめる継続型エンタメが求められ、可処分時間の細切れ化にも合致(スマホゲーム・配信視聴)。
90年代的サブカル(音楽・アート・ストリート・批評)は“場”を媒介にした横断が強みだったが、場(雑誌/クラブ/独立系書店)の弱体化でネット上に散り、まとまった産業スケールを作りにくかった。
要するに、オタク文化は「キャラ×反復課金×参加コミュニティ×国際同時流通」を握り、プラットフォーム時代のKPI(熱量・継続・可視化)に合致した。一方で90年代サブカルは“編集=場”依存で、デジタル転換後の収益装置を持ちにくかった——この非対称性が“圧勝”の正体だと思う。
日中は実験室的な刺激は少なかったが、思考の連続性を保つために自分なりの儀式をいくつかこなした。
起床直後に室温を0.5度単位で確認し(許容範囲は20.0±0.5℃)、その後コーヒーを淹れる前にキッチンの振動スペクトルをスマートフォンで3回測定して平均を取るというのは、たぶん普通の人から見れば過剰だろう。
だが、振動の微妙な変動は頭の中でのテンポを崩す。つまり僕の「集中可能領域」は外界のノイズに対して一種の位相同調を要求するのだ。
ルームメイトはその儀式を奇癖と呼ぶが、彼は観測手順を厳密に守ることがどれほど実務効率を上げるか理解していない。
隣人はその一部を見て、冗談めかして「君はコーヒーにフレームを当ててるの?」と訊いた。
風邪の初期症状かと思われる彼の声色を僕は瞬時に周波数ドメインで解析し、4つの帯域での振幅比から一貫して風邪寄りだと判定した。
友人たちはこの種の即断をいつも笑うが、逆に言えば僕の世界は検証可能で再現可能な思考で出来ているので、笑いもまた統計的に期待値で語るべきだ。
午前は論文の読み返しに費やした。超弦理論の現代的なアプローチは、もはや単なる量子場とリーマン幾何の掛け合わせではなく、導来代数幾何、モーダルなホモトピー型理論、そしてコヒーシブなホモトピー理論のような高次の圏論的道具を用いることで新たな言語を得つつある。
これらの道具は直感的に言えば空間と物理量の振る舞いを、同値類と高次の同型で記述するための言語だ。
具体的には、ブランデッドされたDブレーンのモジュライ空間を導来圏やパーフェクト複体として扱い、さらに場の有る種の位相的・代数的変形が同値関係として圏的に表現されると、従来の場の理論的観測量が新しい不変量へと昇格する(この観点は鏡映対称性の最近のワークショップでも多く取り上げられていた)。
こうした動きは、数学側の最新手法が物理側の問題解像度を上げている好例だ。
午後には、僕が個人的に気に入っている超抽象的な思考実験をやった。位相空間の代わりにモーダルホモトピー型理論の型族をステートとして扱い、観測者の信念更新を型の変形(モナド的な操作)としてモデル化する。
つまり観測は単なる測定ではなく、型の圧縮と展開であり、観測履歴は圏論的に可逆ではないモノイド作用として蓄積される。
これを超弦理論の世界に持ち込むと、コンパクト化の自由度(カラビヤウ多様体の複素構造モジュライ)に対応する型のファミリーが、ある種の証明圏として振る舞い、復号不能な位相的変換がスワンプランド的制約になる可能性が出てくる。
スワンプランド・プログラムは、実効場の理論が量子重力に埋め込めるかどうかを判定する一連の主張であり、位相的・幾何的条件が物理的に厳しい制限を課すという見立てはここでも意味を持つ。
夕方、隣人が最近の観測結果について話題にしたので、僕は即座に「もし時空が非可換的であるならば、座標関数の交換子がプランクスケールでの有意な寄与をもたらし、その結果として宇宙加速の時間依存性に微妙な変化が現れるはずだ。DESIのデータで示唆された減速の傾向は、そのようなモデルの一つと整合する」と言ってしまった。
隣人は「え、ホント?」と目を丸くしたが、僕は論文の推論と予測可能な実験的検証手順(例えば位相干渉の複雑性を用いた観測)について簡潔に説明した。
これは新しいプレプリント群や一般向け記事でも取り上げられているテーマで、もし妥当ならば観測と理論の接続が初めて実際のデータで示唆されるかもしれない。
昼食は厳密にカロリーと糖質を計算し、その後で15分のパルス型瞑想を行う。瞑想は気分転換ではなく、思考のメタデータをリセットするための有限時間プロセスであり、呼吸のリズムをフーリエ分解して高調波成分を抑えることで瞬間集中力のフロアを上げる。
ルームメイトはこれを「大げさ」と言うが、彼は時間周波数解析の理論が日常生活にどう適用されるか想像できていない。
午後のルーティンは必ず、机上の文献を3段階でレビューする: まず抽象(定義と補題に注目)、次に変形(導来的操作や圏論的同値を追う)、最後に物理的帰結(スペクトルや散乱振幅への影響を推定)。
この三段階は僕にとって触媒のようなもので、日々の思考を整えるための外骨格だ。
夜は少し趣味の時間を取った。ゲームについては、最近のメタの変化を注意深く観察している。
具体的には、あるカードゲーム(TCG)の構築環境では統計的メタが明確に収束しており、ランダム性の寄与が低減した現在、最適戦略は確率分布の微小な歪みを利用する微分的最適化が主流になっている。
これは実際のトーナメントのデッキリストやカードプールの変遷から定量的に読み取れる。
最後に今日の哲学的なメモ。理論物理学者の仕事は、しばしば言語を発明することに帰着する。
僕が関心を持つのは、その言語がどれだけ少ない公理から多くの現象を統一的に説明できるか、そしてその言語が実験可能性とどの程度接続できるかだ。
導来的手法やホモトピー的言語は数学的な美しさを与えるが、僕は常に実験への戻り道を忘れない。
理論が美しくとも、もし検証手順が存在しないならば、それはただの魅力的な物語にすぎない。
隣人の驚き、ルームメイトの無頓着、友人たちの喧嘩腰な議論は、僕にとっては物理的現実の簡易的プロキシであり、そこから生まれる摩擦が新しい問いを生む。
さて、20:00を過ぎた。夜のルーティンとして、机の上の本を2冊半ページずつ読む(半ページは僕の集中サイクルを壊さないためのトリックだ)
あと、明日の午前に行う計算のためにノートに数個の仮定を書き込み、実行可能性を確認する。
ルームメイトは今夜も何か映画を流すだろうが、僕は既にヘッドホンを用意してある。
ヘッドホンのインピーダンス特性を毎回チェックするのは習慣だ。こうして日が終わる前に最低限の秩序を外界に押し付けておくこと、それが僕の安定性の根幹である。
以上。明日は午前に小さな計算実験を一つ走らせる予定だ。結果が出たら、その数値がどの程度「美的な単純さ」と折り合うかを眺めるのが楽しみである。
私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.
本エントリはそれとは全く別の,
「国産LLMの人」という方についてです.
---------
色々思うところがありまして.
例えば,
と繰り返し主張しておられる.
そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態を示唆しているように見受けられます.
```x
▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善の余地がある。
▶︎ 問題は、どのような状態の時に学習が成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。
```
過学習に至ったときにうまくいってるように見えるだけでしょう.
```x
▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。
```
……と主張されておられる.
私が思うにそれは単純な写像を, ニューロンを使って回り道して作っている状態. LLMは局所的にはたしかに線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルをマクロに見ると非線形性があるので)
大規模言語モデル=LLMを目指すとして,
そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトルで表現する, 凄まじく繊細なテーブルです.
それをGELUやSwiGLUのような綺麗な活性化関数を使わずに, しかも爆速でやると仰っている. さすがにそのレベルの革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.
そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元をバックプロパゲーションなしで学習するというのは……さすがにきついかと.
バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.
勾配消失なんて関係ない, という主張については, xorというゼロイチでしか見ないのであれば勾配消失も何もありません. 永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.
「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?
MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.
```x
▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから。
▶︎ 1. 私のNNは高次元の万能近似回路
▶︎ 3. 何十回と失敗した経験則から、原因と対策が殆どわかっている
```
殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓
```x
▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。
▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。
```
既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.
それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBPが現実的にいい性能が出せるし, コストも抑えてこれである」と様々な研究者が合意しているような状況.
そして, そもそもアカデミアは自分のアイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.
ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる. 個人攻撃ではないのです.
出さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラットに評価してそう判断しているから. 感情ではなく, 論理として.
……と, ここまで色々と蛇足なアドバイスをさせていただいたものの, この投稿に対しても
```x
▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww
```
といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)
先に答えておきますね.
「自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」
まだ間に合いますので, 大学院あたりまで修了なさるのがおすすめです.
Twitterに何を投稿しようと自由です. でも自分で違和感を見て見ないふりするのだけはやめたほうがよろしい. 既存手法と同等に自分の手法を疑うこと, これは研究者としての基本姿勢です.
研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.
もちろん, 関わりのない方ですので蛇足でしかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自の姿勢を持つように見受けられまして.
それはもちろん根本的には自由でありつつ, 相談相手の需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.
どうか匿名でご勘弁を.
--------
【追記】
おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.
(Hebbian theory, Perceptron, Adaptive Linear Neuron:ADALIN, Widrow-Hoff learning rule...)
見つけられないとすれば, 古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報を簡単に連想して引用できず, DR等で検索しても出てこないのはその為でしょう.
これらに簡単にアクセスするためにはやはり学術機関に所属して図書館を利用するのが圧倒的に楽です. マイクロフィルムや紙媒体でしか残っていないものもありますから.
また, 有料データベースであるJSTOR, IEEE Xplore, Springer Linkなどにもアクセスが出来ます.
なお, arXivはあくまでプレプリントですので, 論文として引用するには査読を通過したものをつよく推奨します. ジャーナルもものによっては不十分な査読で掲載されてしまいますので, トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.
また, 「分からなければ (大量に貼った) 論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.
ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.
論文を引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.
これは, 過去の論文を引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.
人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関に所属したことのある) 方からの理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.
こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.
鍋に米を500グラム入れる際、今まではかなり手間だった。
まず米の袋をキッチンスケールに乗せ重さを読み取る。そして少しずつ米を注いでいき最初の重さ-500グラムのところで終了する。
だが一度に注ぐ量が少なすぎると何回も繰り返す必要があり効率が悪い。
逆に一度に多く入れすぎると目標の量をオーバーしてしまう。鍋から袋には戻せない(覆水盆に帰らず)。
すなわち米の袋ではなく鍋を量るのだ。
キッチンスケールの上に鍋を置いておき米を注ぐと即座に現在の重さがわかる。
これを利用して、-500グラムではなく+500グラムを計算し、それを目標にすればいい。
ジークアクスもそうだったけど、本筋が属人的で、特定の人物でないと成立しない。盛り上がるセオリーだけど、一般化できないのでスケールしない。これがセカイ系の構造。
https://x.com/nojiri_h/status/1982418203935748460
そもそも小説は「特定の人物でないと成立しないような小さい話」だから小説(そういうミニマムなとこをクローズアップしないと見れないものも世の中にはある)なのだが
それを「そんな小さい話を読むのは嫌だ! ひとつ読んだら大きいスケールじゃないと嫌だ!(だけど学問を真面目に勉強して大きい話にちゃんとコミットするのは面倒くさい)」という、めんどくさがりの大衆のために用意されたのが
「小説だけど大きい話できますよ」と小手先でやらかすミステリやSFだったのに、
いつのまにか「大きい話ができない普通の小説はだめだ、やはりSFだ」みたいな頭おかしい認識になってしまった
10年・20年・30年・50年・100年と物差しのスケールを切り替えればそれはわかること。
そのへんの歴史的俯瞰の視点があれば、意識なんて簡単にアップデートできるんですけどねえ。
はてな界隈には、
大好きな人が多い。
その割には、実際の自分の価値観とか、そういうものに対しては、俯瞰的な視点を持てない人が多いんだよなあ。
最近、少しだけ話題になった「ちゃん」づけで他人を呼ぶことなんて、まともな企業ではこれからは使えなくなるという話、とかは簡単に理解できることのはずなんだけどな。
どういうわけか、スッと納得できる人が多くない。
あれは、〇〇というケースであって、なんたらかんたらで、あるから、、、とかなんとか理論武装「っぽい」ことを主張しだす。
なんだかなあ、、、と思う。
世の中の流れとして、考えられないのが、とても不思議。
俯瞰的な視点で見れば、どんどん窮屈な方向へと社会は向かってるんだから、人の敬称とかもどんどん制限がかけられていく社会になるのは当然。
そういう流れの中で「ちゃん」づけは不適当である、ということが社会に認識されればどうなっていくのかはわかりそうなもの。
でも、なかなかどうして、頑固な人はそれが理解できない。そして、老害へ、、、。
自分がどう思うかよりも、社会がどう変化するのか?頭は柔らかくしてかないと、ね?
とはいえ、未来はがどうなるかはわからないというのも事実なんだけどね。
価値観のアップデートの反動みたいなものが来ることだってありえるから。
トランプみたいな人が日本にも現れて、行き過ぎた価値観のアップデートをダウングレードさせる方向へと持ってく可能性だってある。
それはそれとして、あるのはあるけど、まあ現状はどんどんと息苦しくなる方向へと向かってるという認識は持たないと。
いけないんじゃないですかね。
https://www.nature.com/articles/s41586-025-09655-y
ワクチン推進医師が吹き上がってるみたいだけど、よく読んでみると結構ヤバい話だった。
簡単にいうとがん患者にコロナワクチンを打つと、がん細胞にPD-L1という分子が増えて、そのPD-L1を標的とする免疫チェックポイント阻害剤の効果が上がるってことだ。
このPD-L1が曲者で、本来この分子はがんが免疫を回避する際に利用するもの。
この論文では「PD-L1を標的とする免疫チェックポイント阻害剤」の使用が前提なので、治療効果が高まるという結果になった。
ところがは「PD-L1を標的とする免疫チェックポイント阻害剤」というのはめちゃくちゃ高価で、副作用も大きいので、非常に限定的にしか使われない。
つまりほとんどの場合、コロナワクチンを打っても「PD-L1を標的とする免疫チェックポイント阻害剤」は使われないということになる。
そういう患者では、ワクチンでがん細胞のPD-L1が増えて、がんの免疫回避能だけが上がる可能性がある。
だからこの論文は、ワクチン批判派の「コロナワクチンでがんが進行する」という現象の説明にもなっているんだよね。
試しにAIにも聞いてみた。
mRNA-LNP投与で、腫瘍細胞のPD-L1が24時間で有意に上昇(IFN依存の先天免疫活性化に一致)。これはICI併用の有無に依らず観察される現象です。
健常者におけるmRNAワクチン後、6–24時間でI型IFNや骨髄系/樹状細胞の活性化が立ち上がる(製剤間で強度差あり)。先天免疫→PD-L1誘導という経路の時間スケールを支持。
生検の100日以内にmRNAワクチン接種がある患者は、NSCLCでPD-L1 TPS平均が有意に高く(31% vs 25% / 22%)、50%閾値を超える割合も上昇。インフル・肺炎球菌ワクチンではその傾向なし。広範な腫瘍種を含むコホートでも同様の方向性(TPS 13.3% vs 9.7%)。
ちょちょいといじれる人ってのは力量の差というよりは、特定のシステムに設計から携わったり長期的に関わったりで、コード等の設計全体の勘所が頭に入ってるせい。熟練した開発者を連れてきても、特定システムを担当し続けた開発者の開発速度には流石に敵わない。社内システムって規模で後者を求められてるってことは、数年どころじゃないスケールで見られているはず。
まずは1システム分から、資料とコードのリーディングで集中的に徹底的に頭に読み込んでみるという手はあるかもしれない。
新しい職場や技術の前では誰もが新人。知らないって事実はどうしようもない事だもの。経験者らはそこからの熟練速度は違うけど、それでも熟練者が新しいプログラミング言語でその言語の熟練者並みに製造速度が並ぶまでが半年程度と聞くし、更にその言語への理解と熟練だけでもまだまだ長い先がある。システムの設計能力などの総合力となると終わりがない。
だいぶデカい存在を相手にしてるって感覚で、あまり焦らない方が良いんじゃないかと思う。既に焦燥に追い詰められてしまった心理状態なら、無理せず転職で仕切り直した方が良いのかもしれないけれど。その辺はこちらにはさっぱり見えないし責任持てない事だし何ともね。
forgeでプロット生成し、評価器をChatRTXで直列化してからChatGPTにcontext pushしてjson5に書き戻す -> mcpサーバー経由でAPI叩いてparallelにStable Diffusionで絵を生成し、デノイザをbunchoからphotoshopにアップスケールスルーパスという流れ。
一見、何がそんな難しいのって感じだが、forgeから直でcontext pushすると漫画としてストーリーが破綻する。プロットも絵も単体の生成はうまくいくのに。
直でpushできないから連作すると当然、文脈汚染が発生する。RTXである程度は除去できるんだけど10%前後で直列化に失敗する。意外とインフラ代がかかる。
forgeの初段でフック何する問題はぶっちゃけ場数優先法。いや何が売れるかわからん。過去のランキング遡って上位のヒット率高そうなものを選んでるだけ。
ほぼ全自動達成してるので俺は何出力されてるかぶっちゃけ知らない。統計上の数字の上下で間接的に売れたか燃えたかが分かる程度。
過去の販歴によるとTSをフックにすると初速が安定するっぽい。性別や環境の変調を評価する層が購買意欲高い集団を形成してるように見える。
なろうっぽいというか、AI絵買う奴は何考えてるか分からんな、マジで。
クイズ:このスレと1 は、そのスレ内で第三者から投稿されたとあるイラストにより、大いに笑えるネタとしてミーム化された過去がある。なぜ笑えるネタになったのか?その画像の内容を推測
----
【速報】部下が58兆円の商談に失敗したwwwwww
1 名前:風吹けば名無し[] 投稿日:2016/09/09(金) 20:56:58.04 ID:cxMYqZwN00909.net
笑えるポイント
「58兆円」という荒唐無稽な金額が核心です。これは日本の国家予算規模に匹敵する途方もない額です。
イラストの内容(推測)
「58兆円」と大きく書かれたプレゼン資料やボードを持っている、あるいは
なぜ笑えるのか
スケールのギャップ:個人や一般企業では絶対に扱えない金額を、ごく普通の会社員が商談しているという設定
シュールな真面目さ:非現実的な設定を真剣に描いているギャップ
ビジュアル化の威力:数字だけでは想像しづらかった荒唐無稽さが、イラストで可視化されることで一層際立つ
アカデミックなreasoningに長けているclaude4.5でも、このようなタスクにはめっぽう弱い
やはり"誰が"という主語を読む機能が無いからだろう (昔から、llmは登場人物が3人以上になるシチュエーションでおかしくなるんだよな)
言われなきゃ分からんでは話にならない
トークンの意味に依存し最もらしい事しか出さない機能は文法を読んでいない
あり得ないことを除外するような調整も一因だろう
この想定能力じゃ、普段の推論の、一般の答えのない部分はどうなってるんだという
あり得ない環境を想像できるワールドモデルとユーモアの実装が待たれる
はよう入れてくれや
BERT出た時もそうだったけど、ほんと自然言語処理屋さんってPoCでできる範囲しか興味なくて、どうやってデータクローリングするかとか、きちんと成立するシステムに仕立てる気が無いよね?と思ってたけど、ほんとそんな感想しか言えない書き込みだよな。
結局検索エンジン無いと成り立たないのにそことの連携は考えない場合多いし、少しは考えてますって言ってもモックレベルだからスケールしようとしたら普通に市販検索エンジン導入した方が安いのな。性能差ほとんどないのに。
そら、AWSやAzure、GCPやらのクラウドサービスでLLM組み合わせれば十分なるわけだよ。
自社研究所の研究成果()含めPoC商法に付き合わされてきた立場からすると、スケールしない物を完成したと言うなよと文句言いたくなる。