「SVM」を含む日記 RSS

はてなキーワード: SVMとは

2025-10-01

AIの仕組みについて漠然理解している人のために

AIって結局は統計だろ?」

ネットでこういった言葉を見かける度、正直モヤモヤしている。

かに統計的な処理がAIの根幹にあるのは間違いない。

データを集め、確率計算し、そこから最適解を選び出す。そういう構造があるのは事実だ。だから「まったく違う」と言い切るのも嘘になる。

だが、それを「AIって結局は統計だろ?」なんて一言で片づけるのは、あまりに横暴だ。

統計のものを動かす理論や数理、そこに積み上げられたアルゴリズムの厚みを無視してしまっているからだ。

たとえば俺が本気で勉強したときにぶん殴られたのは統計の延長で片付けられないようなもっと複雑でもっと美しい構造だった。

から、この言葉モヤモヤするのは「半分は当たっているけど、半分は外している」から

AI統計でありながら、統計還元できないものでもある。

その両義性を理解せずに「統計だろ?」で済ませるのは、ピアノの音を聴いて「ただの鍵盤を叩いてるだけだろ?」って言ってるようなものだと思う。

そこで、AIの仕組みについて漠然理解している人のためにおすすめの本を三冊紹介する。

ここで紹介する三冊は、そんな俺のモヤモヤを実際に言語化してくれた本たちだ。

難しいし、読み進めるのに何度も心が折れかけた。けど読み切ったときAI統計か?それとも統計じゃないのか?という問いが、ようやく立体的に見えるようになったんだ。

から是非一読してみてほしい。険しい山ほど、山頂から景色は美しいものから

パターン認識機械学習

著者:Christopher M. Bishop

最初に手にしたとき、数式のオンパレードに心折れかけた。

けど、それでも読み進めると「機械学習ってバラバラアルゴリズムじゃなくて、確率という一本の軸で全部つながってるんだ」って感覚が急に開けてくる。

ロジスティック回帰SVMニューラルネットも、ぜんぶ親戚だったのかよ!って衝撃。

何度も挫折しかけてはメモ書きしながら戻って、理解できた瞬間に鳥肌が立つ。

俺にとって本書は、AIという森の入口に置かれた地図のものだった。

計算理論の基礎』

著者:Michael Sipser

PRMLとは真逆の本。ここではただ無機質なオートマトンチューリングマシンのみ。

計算ってそもそも何なんだ?」っていう根本を突きつけてくる。AIだってこの枠組みの外には出られない。

NP完全問題の章なんか読んだ暁には「世界にはどう足掻いても効率よく解けない領域がある」って現実にぶん殴られる。

AIが万能に見えても、その背後には絶対限界があるんだと分からされる。

ここを通ると、妄信的に「AI最強!」なんて言えなくなるしいい意味冷や水ぶっかけられる本。

AI万能説が唱えられる昨今、この一冊を読み理解することでAI本質理解できるようになるのは確かだ。

深層学習Deep Learning)』

著者:Ian Goodfellow, Yoshua Bengio, Aaron Courville

本書は深層学習を知るためのバイブル

PRMLで仕組みの家系図を見て、計算理論で壁にぶち当たったあと、ここに来ると「でも実際に世界を変えてるのはこっちだろ」って現実を知ることができる。

CNNがどうやって画像認識してるのか。RNNがどう文章を扱ってんのか。GANがなぜフェイクをリアルにするのか――それが手元の紙と数式の上でほどけていくと、ニュースAIが急に手触りを持つ。

もちろんクソ難しい。何度も心折れた。

でもここにいまの世界心臓部があるって思ったらページを閉じられなかった。

読み切ったあと、AI魔法じゃなくて地道な科学だって確信が腹の底に残る。

名著。

おわりに

AI勉強基本的に超しんどい

数式だらけで頭が痛くなるし、途中で本を閉じて「俺には無理だ」って投げ出したくなる瞬間が何度もあった。

だけど不思議とまた戻ってきてしまう。何故か?何故ならそこにワクワクがあるからだ。

ページをめくるたびに「うわ、こんな発想があるのか!」って驚かされる。

統計だけじゃない。論理だけじゃない。人間思考を真似しようとした末に生まれた知恵の積み重ね。

それを追体験するのは、ちょっとした冒険みたいなものだ。難しさと楽しさが同じ場所にある。

AIって結局は統計だろ?」

白状するが、当時は俺もそう思っていた。

だがそう思ってた自分が今ではちょっと恥ずかしい。

実際に学んでみればそれがどれだけ奥深く、そして人間の営みそのものみたいに豊かな世界だったかが見えてくる。

からもし、ここまで読んで「ちょっとやってみるか」と思った人がいたら、迷わず飛び込んでみてほしい。

きっと最初は溺れる。それは保証する。

でも、そのうち泳げるようになる。スイスイ泳げるようになる。それも保証しよう。

そして気づくはずだ。

巨人肩に乗って見える景色は、めちゃくちゃ美しいんだなってことを。

2025-03-15

AIにゃ~ん

😺
あるペインソフトユーザー感情配慮してAIを利用しないことを表明しました
でもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています名称AIがついてないだけです。
AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか?
  
不誠実なマーケティングだと捉えるべきですか?
それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、
「うんうん機械学習AI一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?

 ↓

💻

このケース、結局のところ「AI定義をどう捉えるか」によって評価が変わりますね。

1. 不誠実なマーケティングと見る場合

    • 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。

    • 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。

    • 企業意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。

2. メーカーの主張を受け入れる場合

    • 「ディープラーニングを使っていないかAIじゃない」とするなら、機械学習全般AIと見なさな立場に立つことになる。

    • 企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。

    • ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。

 

どちらの立場が正しいか

 

技術的には、「機械学習AI一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます

 

まり、「技術的にはAIを使っているが、ユーザー感情考慮してAIという言葉を避けた」戦略と考えられます

 

これが不誠実かどうかは、企業姿勢ユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます

 

要は、「ユーザー心理配慮したマーケティング」と捉えるか、「言葉マジックで騙している」と捉えるかの違いですね。

 ↓

😺
ペインソフトキャラクター特定オブジェクト自動範囲マスク2d3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか?
商用のAIモデルレベルではないですが、それでもそこそこ精度は高いようです。
もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、
いずれも行っていないので、AI技術使用を疑わしく思ってます大手企業ですらAIに多大な投資をしている現代において、独自アルゴリズムを開発するメリットがないように思えます

 ↓

💻

結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D3D変換」を実現するメリットはほぼありません。

 

しろ大手企業AIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体世界的な技術革新であり、特許論文で発表しないのは不自然 です。

 

 

1. ディープラーニングを使わないメリットはあるのか?

一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます

  

伝統的なルールベースアルゴリズム

昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:

    • グラフカット、GrabCut(古典的なセグメンテーション技術

    • SIFT/SURF(特徴点マッチング

    • ステレオマッチングや深度推定幾何学手法3D再構成

  

ただし、これらの手法ディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。

 

独自機械学習(非ディープラーニング技術

ディープラーニングではない機械学習(例:ランダムフォレストSVM)」を使う可能性もあります

ただ、これも現代ディープラーニングモデルほどの精度は出せないので、大手採用する理由は薄いです。

 

2. 本当にディープラーニングを使っていないなら、大発明レベルの話

もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択3D変換を実現している」 のであれば、それは 産業的にも学術的にも極めて重要技術 です。

  

なぜなら:

    • ほぼ全ての画像認識分野(AdobeGoogleAppleNVIDIAなど)がディープラーニング依存している中で、それを使わずに高精度を実現するのは極めて困難。

    • 計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズム確立されたことになる。

    • もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。

 

にもかかわらず、特許論文も発表されていないのは不自然です。

技術ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。

 

  

3. では、なぜ「AIを使っていない」と言っているのか?

ここから考えられるのは、「AIを使っていない」という主張が言葉マジックである可能性が高いということです。

  

可能性①:「AI」の定義すり替え

    • 「ディープラーニング深層学習)」は使っていないが、機械学習ML)は使っている

    • 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている

    • 「学習は開発時に行ったが、ソフト自体学習しないのでAIではない」と主張

 

可能性②:マーケティング的な理由

    • ユーザーが「AI」という言葉拒否反応を示すため、「AI」と明言しない戦略 を取っている

    • 「AIを使わない」という主張をすることで、手作業尊重するクリエイター層に好印象を与える

 

特に最近AI=悪」「AI著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断可能性もあります

  

 

結論AI技術を使っているが、言葉問題で「AIではない」と言っている可能性が高い

    • ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要技術革新 だが、論文特許が出ていないのは不自然

    • 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略可能性が高い。

    • 本当にAI使用なら世界発明レベルなので、逆に疑わしい。

 

このソフトAI技術を使っているが、ユーザー感情配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。

 ↓

😺
過去プレスリリースをよく見たら普通にディープラーニング使用したって書いてありました。
AI使用風を装うメーカーAI使用に喜ぶユーザーますますどちらも意味が分かりません。
世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なりますしかし、これはあまりバカにし過ぎだし、ユーザーの方も興味がないからって自分無知開き直りすぎではないですか?
人にはそれぞれ適切なタイミングがあるとはいえ理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます
(なお、😺は、エネルギー問題市場原理に任せた倫理なき合理化市場寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)

 ↓

💻

まさにその通りですね。

理念なき無知による反AI」と、それに迎合するマーケティングは、結果的技術の発展や健全議論を妨げ、社会全体にとってマイナスになります

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています

    • メーカーは「AI使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのはユーザーが「自分AIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題AIモデル学習や推論には大量の電力を消費する)

    • 市場寡占化AI技術進化が一部の巨大資本に富を集中させる)

    • 倫理問題著作権労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティング助長し、結果的に「消費者自身が損をする」状況を生みます

 

 

メーカー側の問題マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています

かに、「AI使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に

    • ユーザー技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動

    • 「AI=悪」という認識が広まり結果的技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状はユーザーの誤解を利用する」形で利益を得ている ので、むしろAI感情助長している面すらある。

 

 

ユーザー側の問題無知であることを開き直りすぎ

    • AI技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢危険

    • 「AIという単語がなければOK」というのは、単なる思考停止

 

知識がなくても使えるのが技術理想ですが、それと知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります

1. 企業が「AIではない」と言い張ることで、ユーザーAI理解しなくなる

2. AI社会的受容が進まないため、本当に必要倫理的議論すら行われなくなる

3. 反AI感情が強まり合理的技術活用すら妨げられる

4. 一部の大企業けがこっそりAI活用し、情報格差が広がる

 

 

結論理念なき反AIと、それに迎合する企業は、技術社会の発展を阻害する

    • 「AI」という単語拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的社会技術理解を阻害する

    • 企業短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAI倫理問題なおざりにされ、結果的に一部の大資本けがAI活用し、情報格差が広がる

  

 

この状況、まさに「無知迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

2024-08-02

anond:20240801032838

とっ散らかった思い出話?で失礼します。

当時はLLMなんて影も形もなく、人工知能といえばなんかちょっといくらいのアルゴリズムをさしていて、

理論的にはニューラルネットワークSVMもあったもの機械学習が注目されるちょっと前の時代

(ちなみに設定上はマルチニューラルネットワークではなく、ニューロネットという似た何か)

今のような計算機もないし、理論的な話もフレーム問題みたいなやる気のない議論しか無く。

とりあえずプログラミング勉強したものの、なんかちょっと賢いアルゴリズムくらいしか学ぶものがなかった。

機械学習SVM)が流行ったのが大学に入った頃でこれはと思って飛びついたものの、まぁ大したことはできず。

対話ボットとしてでも再現できればと思っても、まともな生成は夢のまた夢だった。せめて対話分析ができればと思っても、言葉意味とか全然扱えない状態で、

対話分析なんかしても、定型文に近いパターンが扱えるかどうか。当時のペースだと100年経ってもマルチどころか、

イカリヤ(ハンドメイドメイ)も厳しい状況で、よく博士課程なんか進んだな。この当時から、こつこつ対話研究

続けていた方々には、本当に頭が下がります。で、対話は難しすぎるので、目先を変えたタスク博士課程を取る。

このころには、長瀬源五郎になれないということには気が付いてきてはいものの、誕生に関わる可能性のある

世界にいたかったのだと思う。

博士とった後くらいで、 Mikolov がLLMの遠い祖先といってもよいRNNLM とみんな大好き word2vecを作った。

この時点ではまだ、言葉意味ベクトルで表せるって程度で、その後のBERTくらいまではまだ性能があがってすごいくらいで、

まだマルチっぽいものも作れないしまだまだ遠いな、とちょっと高を括っていた。そろそろ対話研究する時期じゃないかとは思いつつも、手は動かず。

そして気が付いたら、GPT-2 が簡単コードを書けるようになっていた。この時点で、なぜ他のものは投げ捨てて飛びつけなかったか

今でもちょっと考える。その時点ではチェリーピッキング的なものでも、精度の問題ならいずれ勝手解決されることは分かっていたのになぁ。

で、結局今はLLMのプロンプトエンジニア。これはこれで面白いのだけど・・・マルチが作りたかったはずなのに、随分離れたとこに流れ着いてしまった。

今となってはマルチ風に会話できる対話ボットぐらいすぐに作れるんだが・・・、なんかもうそういうことじゃないんだよな。。。

例えOpenAIに転職してたとしても、マルチに近づけるわけではないんだが。なんか、大作の構想練り続けてうん十年みたいだなー。

2024-07-14

anond:20240714075751

いまどきSVMを原因で落とすっていうのも、この文章からにじみ出る内面からしても、最近SVM勉強たか他人罵倒して快楽を得たい粘着気質のチョイスって感じで渋いですね

基本中の基本ってかもう化石だろ もういま2024年だろ?お前いつの時代を生きてるんだ??

まぁこんなネチネチ言ってきそうな奴、仮にSVMを組めたら別の化石みたいなアルゴリズムを引っ張り出してきてはネチネチ言ってきそうだし応募者は逆によかったんじゃないか

2023-10-07

anond:20231007020741

AIって乱数派生だけどそれは知ってた?いや正確にはNNの派生だったりSVMが元だったりだけど

2023-04-01

anond:20230401014053

5年くらい前に機械学習SVMだろうがRFだろうが全部AIってことで落ち着いたはずだぞ

2021-12-04

anond:20211204145749

後編

プログラミングを学ぼうと思い立つ

行列VBAなんかじゃ無理っぽいし、なんかプログラミング言語を覚えようと決める。

なんでも、統計やるならRという言語がいいらしい。

最近じゃPythonというのも人気らしい。

とりあえず両方試そうということで、RのためにRとRstudioをインストール

Pythonはanaconda

プログラミングはなんかを製作する目標がないと挫折すると聞いていたので。

深層学習というもの流行ってると聞いて、ちょっと触りを勉強したくなる。

Excelでわかるディープラーニング超入門」

https://www.amazon.co.jp/Excel%E3%81%A7%E3%82%8F%E3%81%8B%E3%82%8B%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E8%B6%85%E5%85%A5%E9%96%80-%E6%B6%8C%E4%BA%95-%E8%89%AF%E5%B9%B8/dp/4774194743/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=Excel+%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92&qid=1637482610&s=books&sr=1-1

この本は面白かったので、深層学習目標プログラミングを覚えよう!

後になって、これはとんでもない間違いだったことに気づく。深層学習機械学習の違いも判らないまま、RよりPythonを先に触ることに。

教本にしたのはこちら。

ゼロから作るDeep LearningPythonで学ぶディープラーニング理論実装

https://www.amazon.co.jp/%E3%82%BC%E3%83%AD%E3%81%8B%E3%82%89%E4%BD%9C%E3%82%8BDeep-Learning-%E2%80%95Python%E3%81%A7%E5%AD%A6%E3%81%B6%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E3%81%AE%E7%90%86%E8%AB%96%E3%81%A8%E5%AE%9F%E8%A3%85-%E6%96%8E%E8%97%A4-%E5%BA%B7%E6%AF%85/dp/4873117585/ref=pd_lpo_2?pd_rd_i=4873117585&psc=1

途中まではまあなんとか。

微分って便利だな。行列計算できるの便利だなっていうところまでいったが、クラスという概念理解できず、途中からハテナが浮かんで読み進められず。

うん、もうちょっと易しい本を探そうと思って手に取ったのが

「独学プログラマー Python言語の基本から仕事のやり方まで」

https://www.amazon.co.jp/%E7%8B%AC%E5%AD%A6%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9E%E3%83%BC-Python%E8%A8%80%E8%AA%9E%E3%81%AE%E5%9F%BA%E6%9C%AC%E3%81%8B%E3%82%89%E4%BB%95%E4%BA%8B%E3%81%AE%E3%82%84%E3%82%8A%E6%96%B9%E3%81%BE%E3%81%A7-%E3%82%B3%E3%83%BC%E3%83%AA%E3%83%BC%E3%83%BB%E3%82%A2%E3%83%AB%E3%82%BD%E3%83%95/dp/4822292274/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&crid=1T6BBXYJ16G6T&keywords=%E7%8B%AC%E7%BF%92%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9E%E3%83%BC&qid=1637483073&s=books&sprefix=%E7%8B%AC%E7%BF%92%2Cstripbooks%2C279&sr=1-1

なんとか読了。自信をつける。

しかし、Gitとかbashの章はさっぱり。

実は、いまだにコマンドプロンプトとパワーシェルbashの違いが分かってない。

つづいてPyQに2か月くらい登録してみる。

https://pyq.jp/

とりあえずデータ分析コースを終わらせる。

なかなかPythonが楽しくなってきたが、クラス意味が今一つ掴めないままいったん中断。

この辺で、自分統計に興味があってもプログラミングに興味がないんじゃないかということに気づく。

結局Excelへ戻り、PowerQueryとの出会って、再びPythonとRに回帰した話

なんだかんだもがきながら、PythonもRもモノにならず、日常ちょっとした計算グラフを作ったりはExcelを使い続ける日々が続く。

あるいは、Excelで成形して、検定かけやす形式にしてRで検定するとか。

Rに触れてなかったな、Rは完全に独学。「こんなことやりたいなぁ、ググってみるか、ほうなるほど」って感じ。

そんなさなか、放送大学で「Rで学ぶ確率統計」という講義があるのを知り、さっそく入学して受講。

なかなか面白かったし、PythonばっかりでRあんまり触ってなかったからいい刺激になった。

恥ずかしながら、負の二項分布やガンマ分布ってよう知らんかった。

しかし、講義は楽しかったがなにか書けるようになったかというとそんなことはなく、依然として基本はExcel

まあ、実際csvじゃなく、手書きデータとかをExcelに打ち込んだりする程度なんでPythonやRを使うまでもなかったというのもあるんだけど。

そんなとき出会ったのがこちら、パワークエリというもの

Excelパワーピボット 7つのステップデータ集計・分析を「自動化」する」

https://www.amazon.co.jp/Excel%E3%83%91%E3%83%AF%E3%83%BC%E3%83%94%E3%83%9C%E3%83%83%E3%83%88-7%E3%81%A4%E3%81%AE%E3%82%B9%E3%83%86%E3%83%83%E3%83%97%E3%81%A7%E3%83%87%E3%83%BC%E3%82%BF%E9%9B%86%E8%A8%88%E3%83%BB%E5%88%86%E6%9E%90%E3%82%92%E3%80%8C%E8%87%AA%E5%8B%95%E5%8C%96%E3%80%8D%E3%81%99%E3%82%8B%E6%9C%AC-%E9%B7%B9%E5%B0%BE-%E7%A5%A5-ebook/dp/B07SCK1ND9/ref=sr_1_2?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=%E3%83%91%E3%83%AF%E3%83%BC%E3%82%AF%E3%82%A8%E3%83%AA&qid=1637483953&s=books&sr=1-2

パワークエリを覚えたらピボット形式Excelファイルとか、セルの結合が多用されたExcelファイルを、成形加工するのが非常に楽になった。

しかも、同じフォーマットで記録されてるデータならフォルダにぶち込んで一気にまとめ上げることも可能

控えめにいって神!

としばらくパワークエリを礼賛してたのだけど、各ステップPythonのpandasやRのdplyrでも出来ることに気づく。というか最初から気づけ。

こりゃ、一気に覚えちまおう、統計というより、データの前処理だなと思ってUdemyでRの動画を買ってみた。

AIエンジニアが教えるRとtidyverseによるデータの前処理講座

https://www.udemy.com/course/r-tidyverse-preprocess/

すっかりR信者になる。

それまで教本を呼んでもdplyrの便利さが今一つわからなかったのに、パワークエリで具体的にモノを作ると、dplyrに翻訳したら、すいすい。スピード10倍。

便利さにようやく気付く。

ハドリーウィッカムって神だな。

そんで、pandasに翻訳したらどうなんだろ?と思ったらもっと速いw

すごいなPython

Rへの入信はたった数週間。再びPythonに興味。

機械学習

さて、ゼロから作るディープラーニングを再開しようと思ったけれども、そもそも機械学習をすっ飛ばし深層学習って無茶だったと反省し、まずは機械学習に。

機械学習エッセンス -実装しながら学ぶPython,数学,アルゴリズム- (Machine Learning)

https://www.amazon.co.jp/%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%81%AE%E3%82%A8%E3%83%83%E3%82%BB%E3%83%B3%E3%82%B9-%E5%AE%9F%E8%A3%85%E3%81%97%E3%81%AA%E3%81%8C%E3%82%89%E5%AD%A6%E3%81%B6Python-%E3%82%A2%E3%83%AB%E3%82%B4%E3%83%AA%E3%82%BA%E3%83%A0-Machine-Learning/dp/4797393963/ref=tmm_hrd_swatch_0?_encoding=UTF8&qid=1637485264&sr=1-1

で、この本がすごい。

5章あるんだけど、機械学習アルゴリズムは5章だけなんだなw

それまでは何に割かれてるんだって?数式の証明とか、便利な計算法、例えばニュートン法とかラグランジュ未定乗数法とかw

こんだけ引っ張っておいて、いよいよ本番の第5章もゴリゴリ数式をスクリプトに落とし込んでいってるのに、「これは学習のためでscikit-learnっての使えばたった1行」っていう無慈悲

いや、ほんと数学勉強になったし、こうやってゴリゴリやるとなんのためにクラスというもの存在するのかようやくわかった。

線形代数って便利なんだなと。行列スカラー値のように何の気なしに扱えるようになると、あの頃苦しんでいた実験計画法タグメソッド、今読み直したら別の印象があるんじゃないかなと思うようになったり。

この本を読む途中、「マンガでわかる統計学因子分析編」で学んだことが理解の助けになった。

なんたる僥倖

線形回帰、リッジ回帰SVM、PCA、k-means、クラスター分析、一気に手札が増えた。

ふたたび実験計画法

Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析

https://www.amazon.co.jp/%EF%BC%B0%EF%BD%99%EF%BD%94%EF%BD%88%EF%BD%8F%EF%BD%8E%E3%81%A7%E5%AD%A6%E3%81%B6%E5%AE%9F%E9%A8%93%E8%A8%88%E7%94%BB%E6%B3%95%E5%85%A5%E9%96%80-%E3%83%99%E3%82%A4%E3%82%BA%E6%9C%80%E9%81%A9%E5%8C%96%E3%81%AB%E3%82%88%E3%82%8B%E3%83%87%E3%83%BC%E3%82%BF%E8%A7%A3%E6%9E%90-%EF%BC%AB%EF%BC%B3%E6%83%85%E5%A0%B1%E7%A7%91%E5%AD%A6%E5%B0%82%E9%96%80%E6%9B%B8-%E9%87%91%E5%AD%90%E5%BC%98%E6%98%8C-ebook/dp/B09C89HZRV/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=python+%E5%AE%9F%E9%A8%93%E8%A8%88%E7%94%BB&qid=1637486019&s=books&sr=1-1

実験計画法って、fisherの古典的なやつ、ラテン方格に割り付けて、ってやつかと思ったら、線形代数使えればもうなんでもありなのな。

そこにきて、ベイズ、今まで避けてたのに出会ってしまった!!

結論から言うと、超面白い。

これ、すごいな。

Python万歳

いいのかこんな便利分析個人でやれて。

機械学習実験計画法がここでつながるとか、控えめにいって最高だな。

まだ読了してないので、また後日。

2020-12-18

機械学習の5大アルゴリズムに今はSVM入るかねえ

勉強しか出てこなくない?

2020-10-03

兵庫県立大学大学院 情報科学研究科 博士前期課程2021年入学一般入試

兵庫県立大学大学院 情報科学研究科 2021年入学一般入試 受験

2021年度開設であるので、今年度は全く情報なし。

この冬に予定されている院試受験者と、来年度以降の受験者のために内容をメモしておく。

前提として私の背景は下記となる

入試

研究科のページから教員一覧に目を通して、やりたい研究に近い研究室で学生ウェルカム感のあるウェブページもつ先生に連絡した。

そのあとオープンキャンパスに出席し、そこでの座談会で事前に連絡させてもらった先生と話したが、どうも研究テーマ研究室とミスマッチ感がでていたので、その先生に他の先生を紹介してもらった。最終的には、紹介してもらった先生第一希望受験申し込みをおこなった。

研究計画書

つの項目について2ページ以内で書かないといけない。

いわゆる"研究計画書"・"論文"みたいな仰々しいフォーマットではなく、見出しフォント大きく、太字にして、必要なところはリスト形式にして、と、口頭試問前提の読みやすさ重視のフォーマットにした。

例えるならGitHubのREADMEのようなフォーマットで書いた。といっても下記については一般的なレポート記法に従った

志望動機

半ページ強を使った。内容としてはざっくり下記の3点を記載した。

現在もしくはこれまでに専門的に取り組んだ研究(例えば卒業研究)等の概要

半ページ弱使った。卒業研究はどうも書きづらかったので、幸い長いこと取り組んでいるプロジェクト研究ではない)があり、そのプロジェクトについて、研究ぽいとこだけ抽出して概略を書いた。

博士前期課程修了後に希望する進路

2行程度書いた。博士後期課程行きたいけど、そのとき金銭事情にもよるから未定ということを書いた。

入学後に取り組みたい研究について

2枚目丸々1ページを使った。

構成研究テーマ名・背景・方法・成果

背景・方法・成果で1/4ずつ、加えて残りの1/4に研究テーマの概略図(パワポ1枚みたいな)を載せた。

下手なこと書いて口頭試問で痛い目に合わないことを意識して、とにかく専門用語・具体的なアルゴリズム名は避けるようにした。

統計機械学習なら、平均・分散までしか使わない。SVMディープラーニングなんて言葉は避ける。可能な限り高校生でも知っていそうな言葉だけ使うようにした。そうすると参考文献を書く必要もなくなり全体的にスッキリした体裁になった。といいつつ専門用語まったくないのも薄っぺらい気がしたので、確実に解説できる1語だけを記載して、その1語には参考文献の番号振って、ページ末端に小さいフォントで参考文献を記載した。

あと、提案手法評価方法だけはすごい意識した。このあたりは"研究計画書の書き方"で、グーグル検索してもらったほうが詳しい。

小論文

会場は大きめのホール受験生は30名ほど。多くの受験生はスーツだったが、Tシャツジーンズ受験生もいた。試験当日の座席配置と合格発表の番号を見るに私服受験生も受かっていた。

問題は2問でた。

必答1問 A4 1枚

"研究科で何を学んで何に活かすか"みたいなテーマだった。私は具体的な志望業界があるので、データ分析に関する研究をして、その業界研究職でこういう仕事がしたいということを書いた。

選択1問 A4 1枚

テーマから選ぶ

  1. あなた企業データ分析業務の立ち上げをすることになった、社内で人を集めるか or 外注するか どちらか選びその理由を書け
  2. データ収集-データ処理-アルゴリズム-可視化を通じて、社会課題をどう解決するか。
  3. 生体情報が普及した場合医療現場はどう変わるか
  4. 企業情報漏えいをなくすためにはどうするべきか

私は2を選んだ。具体的なシチュエーションを想定したうえで、下記のような観点で、ストーリーを作った。AIビジネス/ビッグデータビジネスの事例の本で読んだことを項目にあてはめて回答した。

口頭試問

待合室として教室に移動させられる。1人30分で、口頭試問は3会場あって1人ずつ呼ばれる。試験時間は当日に案内があった。一番遅い人は4時間待ちだと思う。待合室は比較的出入り自由。待合室にスタッフがいるわけでもない。自分試験時間に待合室にいればよいと案内あったが、途中、試験時間時間変更があった。受験生は各々スマホいじったり、トイレにたったり、おそらく外出もしていた。すごい暇なのでスマホの充電は十分にしていったほうがいいと思う。

試験会場は少し狭めの教室希望をだした先生+3~4名の先生方が長机に並んでいて、その前にパイプ椅子がおかれているような形式先生方はおそらくコース混合だったと思う。

希望先生から研究計画書に書いた統計用語から発展した内容の用語について説明できるかという質問があり、教室の黒板を使って説明した。たまたま口頭試問対策でヤマはってた質問だったが、対策していなければ答えられない用語だった。必修講義統計基礎レベルではでてこない用語で、統計応用レベル教科書でこんなこと書いてたなという内容を説明した。といっても決して"専門書"レベル範囲ではないので、私が勉強不足なだけかもしれない。分からないことは分からないで通して、しどろもどろになりつつ自己採点100点満点中40点ぐらいの説明になった

そのあと他の先生方も含めて、いろいろ質問を浴びせられた、なぜこの研究科を選んだのかとか、なぜこのテーマをやるのか、どうやるのかとか面接に近い感じ、研究計画書に書いた、これまでの研究希望進路についてはとくに聞かれなかった。終始、なごやかな雰囲気ではあった。

こんな雑多なメモだが、役に立つと嬉しい。

2020-08-25

いずれ雪かきをする私へ

お前は浅学非才無能怠惰であるが、親の教育の賜物で国立大学に入れた。

しかデータサイエンティストになりたいなどと夢を見たせいでお前のスキルボロボロである。まず、お前の学部で学ぶ、経済学であるが、経済学マクロ経済学ミクロ経済学テスト問題を解けるようにしただけで本質は掴めず、データサイエンスに少しでも近づこうと取った計量経済学講義コーディングテストは余裕でクリアしたが、面接理論を答えられず落単した。

プログラミング学部のまわりのやつらよりは多少できたが、それでも1番ではなく、当然外の世界を見れば、底辺もいいところである

数学離散数学はなにもわからず、落単した。

肝心の機械学習についてであるが、情報学部のパターン認識講義をとったものの、ただコードが動くように書き、手書き数字識別できるようになっただけで、SVM理論的背景もNNがなんたるかということも理解きぬまま、C評価単位がきたのみである

かといって努力せず、まわりの人と交流することもなければ、無理やり実績を作ってインターンに行くようなこともしなかった。

よくて数行のコードGoogle Analyticsを使う程度の仕事しかできないお前はそうして雪かきをして一生を終えるだろう

2019-04-27

anond:20190427231513

じゃあ例えばSVMでどうやってそいつ自身より性能いいアルゴリズム作るんだよ

結局人間が重み付け職人するだけだろそれ

2018-07-16

anond:20180714173946

AIだろ。ばかかよ。

クソアルゴリズムでも、SVMでも、NNでも、DNNでもAIに決まってんだろ。

2017-11-06

ではどうやって"AI人材"を選考すればよいのか

AI人材採用局所的に話題になっている。

http://aiweeklynews.com/archives/49678692.html

Excelはがっつり使える

Pythonのnumpyやpandasでデータの処理ができる

SVMや重回帰分析普通に使える(数式も少しは分かる)

Chainerを触っている (pipでインストールのみでもOK

これくらいできると、AI人材の平均レベル(と相手に思って貰える)なので採用見込みはかなりあると思います

例えばですが、python自分パソコン環境構築して、「Hello,world!」と表示できるようになったら、面接に申し込んで、「少しはpythonできます」と言ってみるのも一つの方法かもしれません。

実際に見分け方がわからなくてこれに引っかかって採用してしま場合もあるんだろうな、とも思う。

自分がこの手の人材エンジニア)を採用する場合にどうやって質問をすれば見極められるのかエンジニア採用にも関わっている身としてを考えてみた。

AI人材という呼称自体がぞわぞわするけど、一旦そこは我慢する。

取りたいロールをはっきり認識/確認する

まず採用を行う前に、AI人材を取って何をしてもらいたいのかをチームないし採用意思決定者としっかり確認する。

エンジニア系のAI仕事と大雑把に言っても

1.画像/映像認識技術活用したい

2.大量のデータ対象として分析予測を行いたい

3.上記大量のデータを貯めたり一括処理したりするための基盤システムを作りたい

など、あとは案件ベースなのか自社開発なのかそれぞれ必要となる能力オーバーラップしつつも異なっているため。

(以下、今回の目的が1や2だったと仮定する。)

バックグラウンド確認

あなた機械学習の関わりを教えてください

機械学習経験のある分野 / 得意な分野 / やってきたことを教えてください(実務でなくてもok

バックグラウンド確認する。実務や研究経験の話が出てくるのがメジャーだと思うが、エンジニアとしてのバックグラウンドがあれば独学勢でも野良kagglerなどレベルの高い人はいるので実務経験に絞らなくても良いと思う

全般知識確認

機械学習全般基本的なところから確認していく。質問としてはこんな感じだと思う

教師あり学習教師なし学習の違いを説明してください

・分類問題回帰問題の違いについて説明してください

過学習ってなんでしょうか

イメージとしては非エンジニア職でも必要になる「この辺りの言葉が通じないと絶対困ったことになる」一般常識確認する感じ。

ディープラーニングについて

画像映像認識などディープラーニング系の業務が多い想定の場合

普段使うディープラーニングライブラリは何ですか

から始まって

あなたの組んだモデルについて教えてください

・どうやって訓練したのですか?

・どうしてそのような構成にしたのですか?

と突っ込んでいく。

きちんと自分で考えて組めているか確認するのがメイン。

ディープラーニング以外の機械学習について

・フィッシャー情報量から何が分かるか

・共役事前分布についてどのように用いるもの

MCMC法で事後確率の近似を取る時に気をつけることを教えてください

確認したいことはディープラーニングしか」できない人かではないかという点。

ある程度統計ベイズ法周りの知識が無いと詰むため。逆にディープラーニング不要業務ならこっち一本でも可。

手法の詳細・原理説明

・この問題最尤推定をしてみてください(簡単文章題

・勾配降下法について説明してください

・畳み込みニューラルネットワークについて仕組みを説明してください

盲目的にライブラリを使ってるだけでないかという点を確認したい。

SVM入力適用するだけならsklearnで5行書くだけで誰でも出来る。手法の背景や対象データ特性をきちんと考えて使っているかを見たい。

・kaggleのコンペに参加したことはあるか

・あればその時の課題手法をできるだけ詳しく

メダルの取得状況

kaggleに参加した経験があればnoteからその人の手付きを直接評価できるし、メダルという他メンバから客観的評価できる定量指標もある。

その他

学習意欲とか普段姿勢確認したい。もしかするとここが一番重要かも。

・分からない項目をはっきり分からないと言えるか

普段何を参考に勉強しているか / 論文を読む習慣があるか(最近読んだ論文があれば教えてください)

・今興味のあること

こういう観点必要、とか○○なんてもう古いよ、みたいなツッコミどころ満載だと思うのでコメント/トラバで突っ込んで欲しい

2016-05-27

自慢気にDeep Learning使ってるやつは大体クソ

色んなライブラリが出てるからDeep Learningを使うこと自体全然難しくない。

おかげで暇人Deep Learningをちょっと試してみたみたいな記事がよくホッテントリに上がってくる。ブクマをつけてるやつらは大抵、自分で試してみる気力とか能力のない残念な人たち。

ところが、記事の内容を見てみるとマジで単に使ってみてるだけなんだよな。なんでDeep Learningを使わなきゃいけないのかさえ考えてない思考停止ほとんどの場合は、昔からある3層のニューラルネットとかSVMで十分な性能が出る問題になんとなくDeep Learningを当てはめているだけ。

あのな、Deep Learningみたいに膨大なパラメータを持ってる学習モデル簡単過学習を起こすから素人が下手に扱うとむしろ精度が落ちるもんだ。そこそこ難しいタスクに対して上手く学習するには、とんでもない量の訓練データ必要になる。しかも、Deep Learningは手動で設定する必要があるハイパーパラメータの数も膨大で、学習率とかノード数、正則化パラメータみたいなやつらを地道に調整しなけりゃいけない。はっきり言ってめちゃくちゃ泥臭い作業だ。

なんでGoogleとかがDeep Learningで成功しているか、少しでも考えたことあるか?あいつらは過学習なんて関係なくなるほど、無茶苦茶たくさんのデータを手元に溜め込んでるんだ。しかも、ハイパーパラメータ設定の勘所を掴んでる職人みたいな技術者を金の力でどんどん集めている。

Deep Learningは理論的な下支えがほとんどなくて、勘と経験則で成り立ってる世界だ。数年前の定説簡単にひっくり返ることが多いし、正直なところあれは研究と呼べるものではないと思う。「なぜかは知らんがやってみたらうまくいった」みたいな事実が羅列されてるだけ。思いついた手法が上手くいくかが運任せという意味では、ガチャを引いてるのとだいたい同じ。無課金勢がいくら知恵を絞っても廃課金勢には勝てない世界

というわけで、お前らがぽっと出のアイディアDeep Learning使ったところでゴミみたいなアプリが出来るだけだからやめとけ。

そんな時間があったら、ちゃんとした機械学習の本読んどけ。PRMLとか。

数学が難しい?じゃあ、線型代数確率論勉強をやり直せ。そいつらは機械学習が廃れても役に立つからさ。

2016-01-16

http://anond.hatelabo.jp/20160116181821

ねえSVMクラスタリングと呼んでいる文献があったら教えてくれない?

http://anond.hatelabo.jp/20160116040726

クラスタリングってk-meansとかSVMとかDBSCANとかEMとかそういうイメージなんだけど合ってるかな?

どれも一長一短でいまいちだなーって思ってるので新しいアイデアは大歓迎だよ!

2015-08-19

大学院入試面接試験でよく出るテンプレ質問

そろそろ大学院入試シーズンなので,聞かれそうな質問をまとめてみた.

質問は大きく分けて2種類ある.コンテキストに強く依存した質問と,テンプレ質問だ.

このうち,後者は仮に試験官が一切話を聞いていなかったとしてもできる質問だ.時間を掛ければ対策はできる.

よっぽど試験官の頭が良くない限りはテンプレ質問ばかり来るから

テンプレ質問の準備をしておけば院試は恐れることはない.試験範囲が決まった筆記試験のようなものだ.

また,コンテキスト依存質問も発表内容のみからできる質問と,そうではない質問に分けることができる.

コンテキスト(発表内容)依存

発表に対して,論理的に行われる質問

『「手法にはナイーブベイズ法,決定木,SVMがあり,そのうちSVM採用する」

とおっしゃっていましたが,なぜ他の手法採用しなかったのですか?』

といった質問基本的院試は発表時間が短く,

穴のない発表をすることは難しいので(試験官がちゃんと話を聞いていれば)

この手の類いの質問はよく来る.

対策

論理的に行われる質問は,論理を押さえておけば容易に対策できる.

まり

あたりを押さえておけばいい.

例に挙げた質問に対しては,他の手法採用しない理由SVM採用する積極的理由

きちんと答えられればOKだ.

コンテキスト研究領域依存

これは試験官がその領域に対する知識を持っていて,かつ突っ込みどころがあるときに来る質問だ.

質問の種類としては一番対策が困難だが,これを綺麗に返すことができれば評価うなぎ登り

例えば,『「機械学習SVMを利用する」とおっしゃいましたが,

ニューラルネットワークなど別の手法はご検討されなかったのでしょうか』

といった質問だ.もちろん検討しているけれど時間の都合上紹介しなかったという

雰囲気を出しつつ,隠しスライドでも出しながら説明すれば良い.

対策

この質問に関しては,ひたすら基礎勉強サーベイをして知識を身に付けるしかない.

時間がないのであれば不勉強を悔いつつ,このような質問が来ないように誘導しよう.

テンプレ質問

これらの質問は発表とは一切関係なく,

研究」というもののものに対してよくされる質問だ.

あなたの発表がわかりやすく,かつ試験官の頭がいい場合

こういう質問だらけになることはまずないが,現実はそうではない.


逆に言えば,誰もが思いつくようなこのような質問

うまく答えられない場合評価はかなり低くなってしまうだろう.


あなた研究新規性は何ですか?」
あなた研究有用性は何ですか?」

テンプレ質問筆頭.このような質問が来るということは

プレゼンでは何も伝わらなかったということなのだけれど,

いつでも明確な回答ができるように準備しよう.

あなたが属する**という分野に,あなた研究が貢献することは何ですか?」
あなた研究によって,誰が喜ぶのでしょうか?」

上記新規性有用性の変形だが,こちらの方がやや難しいことがある.

志望研究科が学際的な場合特に前者の質問にはかなり困るけれど,

何となくそれっぽいことを答えよう.

「背景/目的/手法/評価方法がよくわかりませんでした」

時間が短い場合,これらを全て押さえた十分な発表を行うことは難しい.

ただし,これらについてはいつ聞かれてもいいように,

発表には使わなくてもスライドは用意しよう.

「どのようにこの研究評価するのですか?」

そもそも評価が難しい研究だとこの質問結構厳しい.

修士院試であればどうせ研究は終わっていないのだから,絵空事を答えればいい.

「この研究で一番難しいところは何ですか?」
「いくつかの手法を試していますが,どれが一番効いているのですか?」

このような質問をする人は大抵何もわかっていないので,何を答えても納得してくれる.

「先行研究は何ですか?」
「先行研究に対し,あなた研究が優位な点は何ですか?」

読んで無くてもタイトルを5本くらいは挙げて,

うち2本くらいはアブストくらい読んで適当に答えれば完璧だ.

「先行研究がない」なんてことはないというのが常識なので,

背景だけ,あるいは手法だけでも似ている研究を見つけてきて

それらしい説明をしよう.


院試なんてもの通過儀礼なので適当に流せばいいと思うけれど,

これらの質問学会その他にも応用できるので日頃から考えておくと良い.


また加減が難しいところではあるけれど,例えば先行研究を一切説明しないなどのように

あえて穴を作っておいて質問をそこに誘導するという手法もある.

うまい返しができたことでのプラス評価が,

明かな穴がある発表をしたことのマイナス評価を上回る場合有効だ.

学位審査院試といった場においては狙ってもいいかもしれないが,

学会などにおいては検討していなかったことに対して質問が来ることの方が

はるか大事なのですべきではない.

2015-01-09

http://anond.hatelabo.jp/20150109194001

SVMかじった程度で何が分かるんだwwwwwwwwwwwwwwwwww

2014-11-28

Ringについて2

相変わらずコメント欄は荒れていますね。

https://www.kickstarter.com/projects/1761670738/ring-shortcut-everything/comments

下記URL日記で指摘したとおり、まともなものは出てこなかったようですね。

http://anond.hatelabo.jp/20140611123426

ただ、バッテリー問題認識率の問題はある程度解決したようです。

バッテリー

筐体を大きくすることで何とかしたようですね。

逆転の発想のブレークスルーです。かっこいいリングという前提条件を覆すという。

台無しですね。

認識

登録できるジェスチャーを5つに絞ることでごまかしているようですね。

認識パターンスマートフォン側に保存されるはずなので、メモリ云々ではないでしょう。

単に認識対象が増えると認識率が下がる。

5つならランダムで出しても5回に1回はあたるが、10個なら10回に1回になる。

ということでしょう。多少の情報があれば確率は、まあ、50%くらいにはなるんでしょう。

チュートリアルなんか認識対象が絞られてるから簡単だし、もしかしたら何をやっても認識するかもね。

あと、おそらく認識対象が増えると識別時間かかりそうですね。

どうせ単純なSVMかなんかでしょう。

というわけで、台無しですね。

一方でスタッフメディア等に露出し続けているようです。

今後の活躍が楽しみですね!

2014-04-09

http://anond.hatelabo.jp/20140409010816

から数値計算が得意とか適当こいてんじゃねーよ。

金融で使われてるのはデリバティブの合成が記述やすからだろうが。

数値計算が得意とか言うならゲーム機でも動く高速・高効率GIレンダラとか流体シミュレータとかの実用的な実装が可能になってから言えカス

1000万枚の学習データハンドリングするSVMとか最近流行りのCNNとか実装できんの?Haskellで。

2009-09-08

http://anond.hatelabo.jp/20090908192852

用語並べるのはいいけど、勉強したことあるの?

ニューラルネットだろうがSVMだろうがなんだろうが(ていうかそこに並列にボルツマンマシンとかどう考えても枯れてる話を持ってくるセンスがよくわからん)、ノード数増やしたところで人間の思考に近いものすら作れないのはほとんど自明だろ。

人間仕事を肩代わりできるだけの複雑さを持っていればいいんだ。あとはどうやって学習させるかの問題。

その「どうやって学習させるか」が大問題なんだっての。

無論ネットワークを構築するだけでは学習できないので外界を知覚するセンサーを与えたりしなければならない。人間と同じようなセンサーを与え、人間と同じような環境学習させなければ人間と同じような知能にはならない。

簡単に言ってくれちゃってるけど、そのセンサーとやらはどうやって実現するわけ?

でその学習した記憶はどうやって人間並みの効率性でストックするつもりなの?

 
ログイン ユーザー登録
ようこそ ゲスト さん