はてなキーワード: 計画法とは
統計検定準1級ってどのくらいすごいの?
いい質問です!
「統計検定準1級」のレベル感を、内容や評価、他の資格と比較してわかりやすくお伝えしますね。
✅ 統計検定とは?
4級(高校基礎)~1級(高度専門家レベル)まであり、準1級はその間。
✅ 準1級はどのくらいのレベル?
大学学部の統計学をしっかり理解し、実際のデータ解析に応用できる力が求められます。
実際には「回帰分析」「分散分析」「多変量解析」「一般化線形モデル」「ベイズ推定」などを理論と計算の両面で問われます。
✅ 難易度感
合格率は20〜30%程度と低め(年度や分野により多少変動)。
計算問題も多く、公式を覚えているだけでは解けない応用力が必要。
データサイエンス系修士課程の基礎としても十分通用する知識レベル。
データサイエンティスト、マーケティングアナリスト、品質管理などの職種で有利になることもある。
✅ 他の資格と比べると?
✅ どんな人が持ってると強い?
データサイエンティスト志望の人(実務と理論の両方を強調できる)。
社内で統計解析を担う人。
🎓 総評
「単に知識を暗記している」ではなく、
必要なら、勉強法のアドバイスやおすすめ教材もまとめてお伝えします!
統計検定準1級は、日本の統計学の資格試験の中でもかなり高いレベルの資格です。
統計検定は4級から1級まであり、準1級は上から2番目の難易度にあたります。この資格は統計学の理論的な知識だけでなく、実際のデータ分析における応用力も問われるため、取得するには相当な勉強が必要です。
具体的な難しさとしては:
データサイエンティストや統計解析を専門とする研究者、品質管理の専門家などが持っていると評価される資格です。大学院レベルの統計学の知識が求められるため、文系出身者にとっては特にハードルが高いとされています。
製薬会社の臨床統計、金融機関のリスク管理、マーケティングリサーチ会社、コンサルティングファームなどで重宝される資格です。
合格率も比較的低く、しっかりとした統計学の基礎から応用まで身についていることの証明になるので、統計・データ分析分野では「かなりすごい」資格と言えるでしょう。
ライン工にしてはやるじゃん。
すっかりどこまで書いたか忘れた。
2021年の終わりに↓これを読んだあたりまでだったな。
「Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析」
すげーいい本だったんだけども、実際に活用する場がないんで(なにせ頭を使わない仕事なんで)読みっぱなし。
今考えるとよくないね。
実は、この本に出てくるD最適計画、それからサポートベクター回帰っていうやつが1年後くらいにちょっと役立ったのだけど、それは後の話。
「ゼロつく」のときは理解できなかったクラスの概念も、このころにはすっかり便利さを実感することに。
ここで、もう一度「ゼロつく」に戻ればよかったんだけど、ここまでくると、自分の仕事周りのデータに対しては深層学習って不要だなって思って、戻ることはなかった。
前のエントリで書いた放送大学で「Rで学ぶ確率統計」の単位を無事に取れて調子に乗ってたので、せっかく入学したのだからといくつか授業取ってみた。
統計とかプログラミングの勉強については、「データの分析と知識発見」「コンピュータービジョン」「データベース」の三つかな。
それとは別に人文系の科目も調子に乗って履修してる。もともと数学とか嫌いで歴史とかのほうが好きだし。
「データの分析と知識発見」ってのは、Rを使うやつで、今考えれば多変量解析の入門って感じ。
「コンピュータービジョン」はクッソ難しかったな。
OpenCVってやつの使い方をサクっとパパっと知れるんかと思ったら、ガッツリとエピポーラ幾何とかいうやつから入って行列三昧だったし。
線形代数を知らないエセ理系舐めんなよ!わかるわけねーだろ(今までの本でも行列を触ってきてたけど、雰囲気でなんとかいける、あるいは読み飛ばしてもそういうもんと思って次に進めた。うまく言えないんだけど、100次元とかあるともう諦めてそういうもんだって割り切れるじゃん?3次元くらいだと、ちゃんと現実に戻ってこれないと困るから、ホントに理解できてないのが自覚させられる)
「データベース」もお気楽にSQLマスターできるもんかと思ったら、歴史から入ってガッツリと三層スキーマなにやら、SQL触るのなんてちょびっとだった。
で、このへんでいろんな方向に手を延ばすのもだけど、1つ資格でも取ってみようかなと思って、統計検定に手を出してみた。
大学がエセ理系のポンコツとはいえ、高校出てるんだし大村平の本を読みまくったんだし、受かるだろと思ったが、2級初受験は58点で不合格。
すっかり統計学に恐怖が出てしまったので、2級リベンジの前に「Python3エンジニア認定データ分析試験」とかいうやつに挑戦。
こっちは、ホントに易しくて、統計学がわかってなくてもライブラリの使い方がわかればまあなんとかなるもんだった。
ほぼ満点で弾みをつけて、2級リベンジ。
今度は過去問を買って真面目に机に向かう。
自分、机に向かうってことが嫌いで、ひたすら通読を繰り返すやりかたしか勉強法を知らなかったんだけど、この時ばかりは体に叩き込む作戦。
電卓で計算しては、分布表を読んで、判定して、みたいなルーチンを体で覚えて、見事リベンジ。
しかし、統計検定2級も受からないくせによく、背伸びしていろんな本読んでたもんだよ。
たぶん、わかったつもりになってなんもわかってなかったな。
統計検定2級を取った勢いで、準1級とやらもとっちまうかと手をだしたら、テキストが超難しいの。
4章くらい読んで、挫折して、数か月寝かせる、みたいな感じを何度か繰り返すことになった(結局、準1級に受かったのは2025年になってからだ)。
準1級は、統計学以前に、微分積分とか線形代数の知識がないとテキスト読めない仕様。
日本統計学会公式認定 統計検定準1級対応 統計学実践ワークブック
「式変形については行間を読んで解釈してくれページの都合で次行くからよろしく!」
っていう感じ。
見事に挫折。
統計も、微分積分も、線形代数も徐々にってことで、準1級はいったん休止。
それから、バイオインフォマティクス技術者認定試験とかいう試験をみつけて、興味が出たので公式テキストをとりよせて挑戦することに。
バイオインフォマティクス入門 第2版
元々、生物系だったので、なんとなくわかる単語も多かったし(理系のくせに微分積分も線形代数もヘナチョコって生物系だって丸わかりかもだが)。
これが、ほどよく多変量解析から機械学習からいろいろ網羅されていて、いい勉強に。
重いもの運ぶくらいしか取り柄がない腹が出て禿てきたオッサンが、若い院卒様に頼られるって自己肯定感高まる良い体験。
そこで使ったのが、D最適計画とサポートベクター回帰。
まだまだ鼻くそのようなもんなのに、意外と頼られるっていうことになったんだけど、まあ多いのはデータの可視化だったんで、データの可視化を学んでみることに。
本当は、ggplotとmatplotlibとかplotlyを100本ノックしようと思ったんだけど、やっぱり急がば回れ、有名な教科書の和訳らしいので↓をチョイス
「データビジュアライゼーション ―データ駆動型デザインガイド」
すげーお堅いw
やっぱ、こころのどっかで、「チャっとやったらパパっとできる!」みたいなのを求めてるんだよな。
そんで、二冊目はもうちょっと実務的に↓を選んだ。
『データ分析者のためのPythonデータビジュアライゼーション入門 コードと連動してわかる可視化手法 』
この本はかなり実務的、というかどうすればお手軽に可視化できるかって話だけなんだけど、おかげさまでキレイに見せるテクニックだけは上がり、職場でも評価は上々。
「なんかよくわかんないけどアイツに持っていけば綺麗なFig作ってくれる。ポンコツだからいつも暇だし!」
という状態に。
放送大学で「データ構造とアルゴリズム」とかいう科目を取ったおかげで、意図せずC言語と関わる。
二度とC言語を使うことなんかないだろうけど、グラフ理論がコンピュータと相性がいいのが、データ構造の勉強をしてよくわかった。
そんで、やっとこさ挫折していた統計検定準1級の勉強を再開する。
で、また数章読んで飽きた。
だって、難しいんだもん。
っていうか、線形代数と微分積分の学力不足で投げたことをすっかり忘れて、もう一度開いて投げ出すんだから世話ないわなw
仕方ないから、微分積分は高校三年生の使う黄チャートを買って目を通した。
線形代数は
を一周。
部分積分と置換積分を手足のように使えるようになってやっとこさ、統計学実践ワークブックを読めるように。
読めるようになってから読むと、因数分解くらいの感じでマクローリン展開してきてることがわかって草。
統計の勉強のリハビリにと、放送大学でも「統計学」という授業をとってみたけれど、統計検定2級より易しかった感じ。
プログラミングの勉強はほとんどしなかったけど、Githubのアカウントつくって、renderとかherokuでウェブアプリを公開したりした。
Gitを覚えてみて初めて分かる、「名前を付けて保存」以外のファイル管理を知らなかった自分のヤバさ。
続く。
そう、それそれ。裁定機会が存在しちゃうと、もはや価格理論じゃなくて**「儲け話」になっちゃうから、ブラック=ショールズみたいな中立的・理論的価格決定モデル**の根拠自体が吹き飛ぶ。 だからこそ、「完備市場じゃない」という前提を崩すのは興味深いんだよね。 情報が非対称だったり、すべてのリスクがヘッジできなかったりすると、同じ市場でさえ価格が一意に定まらない。 たとえば: 完備市場じゃない状況にすると 価格が「帯」になって現れる。 「スーパー・レプリケーティング戦略」「サブ・レプリケーティング戦略」で上下の価格境界ができる。 そのへん、デルタ・ガンマ・ベガだけでは足りなくなるから、非線形計画法や二重対問題みたいな数学も絡んでくるよね。 ここで質問だけど: ブラック=ショールズを完備市場じゃない方向に拡張したいとき、 ***価格の一意性が崩れる代わりに「何をもって合理的価格帯とするか?」**を定義する必要があるよね? あなたなら、どんな枠組みで「その価格帯」を定める? たとえば数理的にはどんな理論が近いと思う?それとも実務的な手法から入る?
ある会社が2つの製品(XとY)を2台の機械(AとB)を使って製造しています。Xの1単位を生産するには、機械Aで50分、機械Bで30分の処理時間が必要です。Yの1単位を生産するには、機械Aで24分、機械Bで33分の処理時間が必要です。
今週の始めの時点で、在庫にはX製品が30単位、Y製品が90単位あります。今週の機械Aの利用可能な処理時間は40時間、機械Bは35時間と予測されています。
今週のX製品の需要は75単位、Y製品の需要は95単位と予測されています。会社の方針は、週末時点でのXとY製品の在庫単位数の合計を最大化することです。
1: 今週、各製品をどれだけ製造するかを決定する問題を線形計画問題として定式化してください。
2: この線形計画問題をglpkを用いて解いてください。
決定変数:
最大化 Z = (x + 30 - 75) + (y + 90 - 95) = x + y - 50
制約条件:
1. 機械Aの処理時間制約: 50x + 24y ≤ 2400 (40時間 = 2400分)
2. 機械Bの処理時間制約: 30x + 33y ≤ 2100 (35時間 = 2100分)
3. X製品の需要制約: x ≥ 45 (需要75 - 在庫30 = 45)
4. Y製品の需要制約: y ≥ 5 (需要95 - 在庫90 = 5)
5. 非負制約: x ≥ 0, y ≥ 0
GLPKで解くために、以下のようなモデルファイル(例:model.mod)を作成します:
/* 決定変数 */ var x >= 45; var y >= 5; /* 目的関数 */ maximize Z: x + y - 50; /* 制約条件 */ s.t. machine_A: 50*x + 24*y <= 2400; s.t. machine_B: 30*x + 33*y <= 2100; end;
このモデルファイルを使用して、コマンドラインで以下のコマンドを実行します:
glpsol --model model.mod -o solution.txt
GLPKが問題を解いた結果は以下です。
Problem: model Rows: 3 Columns: 2 Non-zeros: 6 Status: OPTIMAL Objective: Z = 1.25 (MAXimum) No. Row name St Activity Lower bound Upper bound Marginal ------ ------------ -- ------------- ------------- ------------- ------------- 1 Z B 51.25 2 machine_A NU 2400 2400 0.0416667 3 machine_B B 1556.25 2100 No. Column name St Activity Lower bound Upper bound Marginal ------ ------------ -- ------------- ------------- ------------- ------------- 1 x NL 45 45 -1.08333 2 y B 6.25 5 Karush-Kuhn-Tucker optimality conditions: KKT.PE: max.abs.err = 4.55e-13 on row 2 max.rel.err = 9.47e-17 on row 2 High quality KKT.PB: max.abs.err = 0.00e+00 on row 0 max.rel.err = 0.00e+00 on row 0 High quality KKT.DE: max.abs.err = 0.00e+00 on column 0 max.rel.err = 0.00e+00 on column 0 High quality KKT.DB: max.abs.err = 0.00e+00 on row 0 max.rel.err = 0.00e+00 on row 0 High quality End of output
以下のような最適解が得られます:
Z = 1.25 (週末時点での余剰在庫数)
この結果から、会社は今週、X製品を45単位、Y製品を6.25単位製造するべきであることがわかります。これにより、週末時点での余剰在庫数は1.25単位となり、最大化されます。
「お前の騙るデータや市場評価も、元は主観的な一ユーザの評価の集まり」とのことだけど、その指摘は部分的には正しい。
ただ、重要なのは、それらのデータが一定の規模で集計され、統計的に有意な結果として分析されているという点だよ。
単なる個人の意見と、数千、数万のデータを基にした市場評価を同列に扱うのは明らかに誤りだ。
また、「自分で手を動かしたことない奴はゴミでしかない」とのことだけど、この議論の文脈で「手を動かす」とは具体的に何を指している?
もし「実際に車を運転する」ことだけを指しているなら、それは議論を狭めすぎている。
クルマの評価には技術的なスペックや市場動向、第三者のテスト結果も含まれるべきで、運転体験だけが評価軸ではない。
実験計画法や統計的評価を持ち出すのであれば、むしろそういった多面的なデータを無視するほうが「科学的ではない」と言えるよね。
さらに、「トンデモしか騙ったことない奴にはそれで嘯ければ良い」とのことだけど、具体的にどの部分が「トンデモ」なのか指摘してもらえないかな?
こちらは具体的なデータや市場の状況を基に議論しているつもりだし、それに対する反論として「手を動かさない=科学的ではない」と言い切るのは、むしろ根拠がない感情的な発言に見える。
議論の土台に立つためには、「科学的ではない」と批判するだけでなく、具体的な反例やデータを示して主張を補強する必要があるよ。
製品Aと製品Bの両方を生産することを前提とした線形計画法の問題設定を考える。
2x_A + x_B \leq 100
3x_A + 2x_B \leq 180
x_A \geq 10
x_B \geq 5
x_A, x_B \geq 0
ここで、x_A は製品Aの生産量、x_B は製品Bの生産量。最小生産量を設定することで、両方の製品を必ず生産するようにする。
from scipy.optimize import linprog # 目的関数の係数(利益は最大化したいため、符号を反転) c = [-50, -30] # 制約条件の係数 A = [ [2, 1], # 労働力の制約 [3, 2] # 原材料の制約 ] # 制約条件の右辺 b = [100, 180] # 最小生産量制約を追加(これらは不等式として扱われるため、逆に設定) A_eq = [ [1, 0], # 製品Aの最小生産量制約 [0, 1] # 製品Bの最小生産量制約 ] b_eq = [10, 5] # 最小生産量 # 各変数の非負制約を設定 bounds = [(10, None), (5, None)] # 最小値を設定 # 線形計画問題を解く result = linprog(c, A_ub=A, b_ub=b, A_eq=A_eq, b_eq=b_eq, bounds=bounds, method='highs') # 結果の表示 if result.success: print(f'Optimal value (最大利益): {-result.fun}') print(f'x_A (製品Aの生産量): {result.x[0]}') print(f'x_B (製品Bの生産量): {result.x[1]}') else: print("最適解が見つかりませんでした。")
3. 2の口調で1を語る
4. 無能がしゃしゃり出てくる
https://anond.hatelabo.jp/20221225173449 を書いた増田だが、これが実際にどう釣れるか書いておく。
進次郎構文を参考。自称賢い人はこういうのに性的に敏感に反応してしまう。内容自体は甘利氏の文献などを参考にしたもの。https://twitter.com/shunk031/status/1283991379517956096 のようなツイートもあるので根拠はある。
アルゴリズムってさ、
「○○っしょ」など馬鹿っぽさを感じさせる工夫を凝らしている。「プログラミングは学んだけど、ORなどを知らない」といった無教養なのに自称賢い層がターゲット。一応説明するとこれは線型計画法のこと。glpkを使ったことがあるなら一発で意味がわかる問題。
内容的にはほぼWill Kurtという人が言ってることと合致するようにしている。https://nostarch.com/learnbayes 「爬虫類人」といった見るからに陰謀論と思える用語を使っており、一見するととても知性が低いように見えるが、実際はBayes Factorの説明になっている。こいつしか釣れなかった → https://anond.hatelabo.jp/20221226024142
まだまだ釣りスキルが低いので反応が少ないが、必ず1匹ぐらいは釣れてるので、自称賢いけど実は分野について素人の気取った理系にムカついている人は試してみると良いかも (ワイは飽きたのでもうやらんけど)。
後編
行列はVBAなんかじゃ無理っぽいし、なんかプログラミング言語を覚えようと決める。
とりあえず両方試そうということで、RのためにRとRstudioをインストール。
プログラミングはなんかを製作する目標がないと挫折すると聞いていたので。
深層学習というものが流行ってると聞いて、ちょっと触りを勉強したくなる。
この本は面白かったので、深層学習を目標にプログラミングを覚えよう!
後になって、これはとんでもない間違いだったことに気づく。深層学習と機械学習の違いも判らないまま、RよりPythonを先に触ることに。
教本にしたのはこちら。
「ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装」
途中まではまあなんとか。
微分って便利だな。行列計算できるの便利だなっていうところまでいったが、クラスという概念が理解できず、途中からハテナが浮かんで読み進められず。
うん、もうちょっと易しい本を探そうと思って手に取ったのが
「独学プログラマー Python言語の基本から仕事のやり方まで」
なんとか読了。自信をつける。
実は、いまだにコマンドプロンプトとパワーシェルとbashの違いが分かってない。
つづいてPyQに2か月くらい登録してみる。
なかなかPythonが楽しくなってきたが、クラス意味が今一つ掴めないままいったん中断。
この辺で、自分は統計に興味があってもプログラミングに興味がないんじゃないかということに気づく。
なんだかんだもがきながら、PythonもRもモノにならず、日常のちょっとした計算やグラフを作ったりはExcelを使い続ける日々が続く。
あるいは、Excelで成形して、検定かけやすい形式にしてRで検定するとか。
Rに触れてなかったな、Rは完全に独学。「こんなことやりたいなぁ、ググってみるか、ほうなるほど」って感じ。
そんなさなか、放送大学で「Rで学ぶ確率統計」という講義があるのを知り、さっそく入学して受講。
なかなか面白かったし、PythonばっかりでRあんまり触ってなかったからいい刺激になった。
恥ずかしながら、負の二項分布やガンマ分布ってよう知らんかった。
しかし、講義は楽しかったがなにか書けるようになったかというとそんなことはなく、依然として基本はExcel。
まあ、実際csvじゃなく、手書きのデータとかをExcelに打ち込んだりする程度なんでPythonやRを使うまでもなかったというのもあるんだけど。
「Excelパワーピボット 7つのステップでデータ集計・分析を「自動化」する」
パワークエリを覚えたらピボット形式のExcelファイルとか、セルの結合が多用されたExcelファイルを、成形加工するのが非常に楽になった。
しかも、同じフォーマットで記録されてるデータならフォルダにぶち込んで一気にまとめ上げることも可能!
控えめにいって神!
としばらくパワークエリを礼賛してたのだけど、各ステップはPythonのpandasやRのdplyrでも出来ることに気づく。というか最初から気づけ。
こりゃ、一気に覚えちまおう、統計というより、データの前処理だなと思ってUdemyでRの動画を買ってみた。
AIエンジニアが教えるRとtidyverseによるデータの前処理講座
https://www.udemy.com/course/r-tidyverse-preprocess/
すっかりR信者になる。
それまで教本を呼んでもdplyrの便利さが今一つわからなかったのに、パワークエリで具体的にモノを作ると、dplyrに翻訳したら、すいすい。スピード10倍。
便利さにようやく気付く。
そんで、pandasに翻訳したらどうなんだろ?と思ったらもっと速いw
すごいなPython。
Rへの入信はたった数週間。再びPythonに興味。
さて、ゼロから作るディープラーニングを再開しようと思ったけれども、そもそも、機械学習をすっ飛ばして深層学習って無茶だったと反省し、まずは機械学習に。
機械学習のエッセンス -実装しながら学ぶPython,数学,アルゴリズム- (Machine Learning)
で、この本がすごい。
5章あるんだけど、機械学習のアルゴリズムは5章だけなんだなw
それまでは何に割かれてるんだって?数式の証明とか、便利な計算法、例えばニュートン法とかラグランジュ未定乗数法とかw
こんだけ引っ張っておいて、いよいよ本番の第5章もゴリゴリ数式をスクリプトに落とし込んでいってるのに、「これは学習のためでscikit-learnっての使えばたった1行」っていう無慈悲w
いや、ほんと数学の勉強になったし、こうやってゴリゴリやるとなんのためにクラスというものが存在するのかようやくわかった。
線形代数って便利なんだなと。行列をスカラー値のように何の気なしに扱えるようになると、あの頃苦しんでいた実験計画法、タグチメソッド、今読み直したら別の印象があるんじゃないかなと思うようになったり。
この本を読む途中、「マンガでわかる統計学因子分析編」で学んだことが理解の助けになった。
なんたる僥倖。
線形回帰、リッジ回帰、SVM、PCA、k-means、クラスター分析、一気に手札が増えた。
Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析
実験計画法って、fisherの古典的なやつ、ラテン方格に割り付けて、ってやつかと思ったら、線形代数使えればもうなんでもありなのな。
これ、すごいな。
機械学習と実験計画法がここでつながるとか、控えめにいって最高だな。
まだ読了してないので、また後日。
若くないし、数学を学びなおすには遅すぎると思って尻ごみしていたが、そこを一念発起。
というか軽い気持ちで。ぶっちゃけると分散分析とやらに興味を持ったから。
統計的に有意差があったといわれてもその意味がさっぱりだった。
一応、理系の大学を出てるので、有意差という単語をちょいちょい耳にはしていたが、
「よくわかんないけどt検定とかいうやつやっとけばいいんでしょ?」
くらいの理解だった。
で、ありがちな多重比較の例で、3群以上の比較にt検定は使っちゃダメだよっていう話を聞いて、なんか自分だけ置いてけぼりが悔しくなって、Amazonをポチッとしたのが全ての始まり。
あと、あの頃はライン作業の工員だったから、脳が疲れてなかったし。
みんな数学とかプログラミング、とくにPythonの無料講座は無言ブックマークしてるから興味あるっぽいので、参考になれば。
アドバイスとかくれると嬉しい。
いきなり当たりを引いた。
軽妙な語り口で、懇切丁寧。受験の参考書の実況中継シリーズをわかりやすくした感じ。
何者だと思ったら元航空幕僚長。
手を動かさずとも数式を追えるくらいの丁寧な式変形。かゆいところへのフォロー。
前述の「実験計画と分散分析のはなし」よりも易しめの「統計のはなし」「統計解析のはなし」から始まり、「QC数学のはなし」「信頼性工学のはなし」「ORのはなし」「予測のはなし」「論理と集合のはなし」までぶっ通し。
しかし、やっぱり「実験計画と分散分析のはなし」が一番印象に残ってるのは、その後の勉強に役立っていったからだと思う。
余談だけど、最近亡くなったそうだ。ご冥福をお祈り申し上げます。
それと、
本当は、回帰分析編を買うつもりだったんだけど、マーケットプレイスから間違えてこっちが届いた。
大村さんの本はぶっちぎりでわかりやすいんだけど、あと一歩踏み込みたい。
共分散分析、平行線検定法、プロビット法、自分の住む業界で聞いたことがある単語が大村さんの本にはのってない。
そんなわけで頼ったのがこのページ。
統計学入門
http://www.snap-tck.com/room04/c01/stat/stat.html
t検定くらいならExcelでも一発でp値を出してくれる関数があるけれど、そこから一歩二歩踏み込んでいくと、自分で「あれの平方和を計算して」、「あっちの平方和を計算して」、「サンプルサイズが不揃いだから平均値で代用して自由度で補正して」、ということをExcel上でやらにゃならなかった。
1行に1レコードの形式じゃないとやり難いなぁ。そうじゃないとサンプルサイズが変わるごとに計算列が変わって困る。
と、おぼろげながらtidyデータの概念に気づく手前に来てた。
勉強ブームは2013から2014年くらいまで。そこからしばらくはなんもやってない。
そんななか、2018年ごろ、タグチメソッドの入門書と出会う。
「Excelでできるタグチメソッド解析法入門」広瀬 健一 , 上田 太一郎
これがまた面白い。
有意差があるかどうかじゃなくて、それを使ってどう改良するかか!
ついでに、その中で使ってる手法からコンジョイント分析にも興味が出る。
ははーん、人文科学の世界でも使えるんだね、分散分析と実験計画。と。
(分散分析をコンジョイント分析と呼ぶと怒られるけど、許して)
と読み進む。
この辺から、行列の計算が出てきてExcelでは限界を感じるようになる。
後編に続く
弊社は産業機械を製造している会社なのだが、最近製品の品質がまずいことになってる。
製品をお客さんの工場に納品して、お客さんのテスト稼働中に重大な不具合が出る。
ほぼ全部の試験を1からやり直しになったとかのうわさも漏れ聞く。
経営層はかなり危機感を持っているようで、実験計画法の教育を始めた。
効率的に「実験」する方法であって、実験結果を設計へフィードバックするためには有効だから、
今と同じ量の実験で、効率的に問題を見つける=同じ開発期間で品質問題の出ない製品ができる。
・・・はず。
そもそも、どんな会社どんな商品であっても、製品を設計して、試験をして、問題があったら設計を修正をして…というサイクルを繰り返して
試験の項目がたくさん増えて、発売日に全然間に合わないから実験計画法を使いましょう。というのは理解できる。
でも、試験項目が増えたのは、お客さんの工場から製品送り返されて、ちゃんと動くまで納品するなと怒られた後なのだ。
製品開発の担当者はなんで試験をしないのか。当然それにも理由がある。
ペーペー社員であっても製品開発の仕事の流れは何とか理解できる。おおまかにこんな順番である。
4.組み立てる
5.試験をする
6.完成
担当者はこんなもんですかね。みたいな感じで、試験で問題があっても大丈夫なスケジュールを立てる。
問題は管理職である。管理職がスケジュールを確認する会議に出たときに、修正が入る。期間を短くする方に。
「うーん自分が担当だったらこの三倍は時間がないと無理だな~」
この時点ですごくやな予感がする。
そのあとは設計が始まって、案の定スケジュール通りに終わらない。期間が短すぎるんだ。
管理職:「そうじゃない、元のスケジュール通りに進めるにはどこを縮めるか考えるんだ!」
むりだろそれ。
当然ながら、試験では「なにも問題は起こらなかった」という結果でないと間に合わない。
あるいはモジュール毎に行う試験は省略する。全体でうまく動けばいいよね?
結果は一番最初に書いた通り。
何も問題なく完成したはずの装置は、出荷前の最終試験や、お客さんの工場でやる受け入れ試験
だけしか通っていないので、お客さんが用途に合わせて使おうとすると「なんか変」とかいう話になる。
ちなみに、この管理職が問題なのだとは思うのだけど、別の製品の会議で見る、ほかの管理職でも
同じようなことを言ってるので、会社の文化なのかもしれない。あるいはそういうことばかり言ってる人が
というわけで、皆さんも根拠のないスケジュールを立てちゃだめだぞ。
えっ?お前はどうしてるんだって?
ペーペー社員は最初の会議で「どう頑張ろうとこのスケジュールでは時間が足りないので時間をください」といったので
担当をはずされたのだ。