はてなキーワード: 信号処理とは
フェミニズムの分類が多すぎると聞いて
記述集合論(Borel階層, Projective階層, 汎加法族)
モデル理論(型空間, o-極小, NIP, ステーブル理論)
再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)
構成主義, 直観主義, ユニバース問題, ホモトピー型理論(HoTT)
体論・ガロア理論
表現論
K-理論
初等数論(合同, 既約性判定, 二次剰余)
解析数論(ゼータ/ L-関数, 素数定理, サークル法, 篩法)
p進数論(p進解析, Iwasawa理論, Hodge–Tate)
超越論(リンドマン–ヴァイエルシュトラス, ベーカー理論)
実解析
多変数(Hartogs現象, 凸性, several complex variables)
関数解析
バナッハ/ヒルベルト空間, スペクトル理論, C*代数, von Neumann代数
フーリエ解析, Littlewood–Paley理論, 擬微分作用素
確率解析
マルチンゲール, 伊藤積分, SDE, ギルサノフ, 反射原理
常微分方程式(ODE)
偏微分方程式(PDE)
非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)
幾何解析
リッチ流, 平均曲率流, ヤン–ミルズ, モノポール・インスタントン
エルゴード理論(Birkhoff, Pesin), カオス, シンボリック力学
点集合位相, ホモトピー・ホモロジー, 基本群, スペクトル系列
4次元トポロジー(Donaldson/Seiberg–Witten理論)
複素/ケーラー幾何(Calabi–Yau, Hodge理論)
スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間
多面体, Helly/Carathéodory, 幾何的極値問題
ランダムグラフ/確率的方法(Erdős–Rényi, nibble法)
加法的組合せ論(Freiman, サムセット, Gowersノルム)
彩色, マッチング, マイナー理論(Robertson–Seymour)
列・順序・格子(部分順序集合, モビウス反転)
測度確率, 極限定理, Lévy過程, Markov過程, 大偏差
統計学
ノンパラメトリック(カーネル法, スプライン, ブーストラップ)
実験計画/サーベイ, 因果推論(IV, PS, DiD, SCM)
時系列(ARIMA, 状態空間, Kalman/粒子フィルタ)
二次計画, 円錐計画(SOCP, SDP), 双対性, KKT
非凸最適化
離散最適化
整数計画, ネットワークフロー, マトロイド, 近似アルゴリズム
Littleの法則, 重み付き遅延, M/M/1, Jackson網
常微分方程式の数値解法(Runge–Kutta, 構造保存)
エントロピー, 符号化(誤り訂正, LDPC, Polar), レート歪み
公開鍵(RSA, 楕円曲線, LWE/格子), 証明可能安全性, MPC/ゼロ知識
計算複雑性
機械学習の数理
量子場の数理
相転移, くりこみ, Ising/Potts, 大偏差
数理生物学
数理神経科学
無裁定, 確率ボラ, リスク測度, 最適ヘッジ, 高頻度データ
データ解析
「ぶっちゃけ日本のIT技術者のレベルが元々低いだけ」論、読んだけど、雑に日本叩き→雑に海外持ち上げの“気持ちよさ”に全振りしてて、論としては穴だらけだよ。順に潰す。
“発明”って規格?論文?OSS?製品?この区別を曖昧にして「思い浮かばない=ない」をやるのは主観の事実化。
反例を淡々と置く(全部2010年代以降の「世界で通る」技術・成果):
HTTP/3 / QUIC系仕様・QPACKの主要貢献者のひとりは日本人エンジニア(例:Kazuho Oku)。IETFのRFCはまさに“世界標準”。「世界で通用」どころか世界の土台。
Chainer / CuPy(Preferred Networks)は動的計算グラフ系フレームワークの先行例。PyTorch隆盛の流れに技術的影響を与えた。CuPyはいまも広く使われてる。
ソニーのCMOSイメージセンサは世界シェア筆頭。これは“ハード”に見えて、設計・製造・信号処理・ツール群までソフトの塊。スマホのカメラ品質=AI前処理の土台。
日本人が中心メンテに関与した高性能HTTPサーバ(H2O等)はCDNや低レイテンシ配信に採用例多数。
産業用ロボット(FANUC、安川)周辺の制御・通信・ツールチェーンは世界の現場で常用。表に出にくいB2B領域は“見えないだけ”。
「LINEが~」みたいなB2Cの派手さだけが“発明”じゃない。基盤を握るのは地味仕事。あなたが気づかない=存在しない、ではない。
Winny/一太郎/CD-ROM/MIDIを“国民的知名度”で持ち上げて、以後は「思い浮かばない」って、知名度=技術力の誤用。
2000年代以降、ITは不可視化(クラウド、プロトコル、ライブラリ、半導体、サプライチェーン)へシフト。見えないところほど難しくなった。派手なガジェットが減ったからレベル低下、ではない。
問題領域で言語は変える。Webは「5歳児でも」動かせる?今のWebは、
CD/CI、IaC、K8s、SRE、ゼロトラスト、分散トレーシング、暗号化、フロントの再レンダリング戦略……
これらを運用で落とさないのが本番。Cが偉い/Webが軽い、は90年代の教養で止まってる。
起業に国の試験?それ、フィルタにはなるけどイノベーションの十分条件じゃない。
トップダウンは国家プロジェクトやインフラ敷設には強い。しかし、
分野で強弱は揺れる。制度の一軸で「勝ち負け」を断ずるのは幼い。
それ、犯罪としてのサイバー強盗の話でしょ。規制準拠の金融基盤と国ぐるみのハッキングを同じ土俵で比べるのは、
「百メートル走で銃使えば最速」って言ってるのと同じ。比較の土俵設定から破綻。
日本のITが伸び悩んだ要因は複合要因:内需の構造、調達・多重下請け、英語コミュニケーション、ストック報酬の弱さ、エクイティ文化、大学と産業の距離、IPO市場の質、人口動態、為替…
これを全部「技術者のレベル低い」で片付けると、説明力を失う。制度と資本設計の問題は制度と資本で解くのが筋。
「勝ってる」を“B2Cでバズるアプリ”だけに限定するから見落とす。
最後に一個だけ。
ChatGPTより
一般的なPC用キーボードは、各キーが「押されているか否か」という二値(オン/オフ)の状態を検出してコンピュータに伝えるため、デジタルな入力装置です。
一方、従来のタイプライターは、キーを押すとその物理的な機構が直接印字部分を駆動して紙に文字を打つ仕組みになっており、電気的な信号処理を行わないため、厳密に「デジタル」とは言えません。
つまり、一般的な意味ではタイプライターは機械式(広い意味でデジタルではなくアナログに近い)装置と考えられます。
なお、近年では電子回路やマイコンを用いた「電子タイプライター」など、従来のタイプライターとは異なる仕組みを持つものもありますが、ここでの話は伝統的なタイプライターを指しています。
以下の記事について.
2029年に地球外文明から人類にメッセージが届く? 科学者も期待をかける「白色矮星付近からの返信」
https://web-mu.jp/paranormal/52364/
宇宙人がいたとして,本当に1973年に送った電波を宇宙人が受信できて,その返信を地球人が受信できるのか.疑問だったのでChatGPTさんに聞いてみた.
1973年、NASAが探査機パイオニア10号に向けて送信した無線信号は、その先にある恒星系へも届くはずである。仮にこれらの星の知的生命体が、その無線信号を受信しようとしたとき、どのくらいの規模、感度のアンテナと信号復元能力が必要か?地球の技術で、同じ距離から送られてきた無線信号を受信する技術・機材はあるか?
以下では、「1973年にNASAがパイオニア10号に向けて送信した電波(指令信号やテレメトリ送信)」が、さらにその先の恒星系へ到達した場合に、それを受信しようとする知的生命体に必要なアンテナ規模や受信感度、そして同等の距離からの電波を地球側が受信可能かどうか、という観点で概説します。実際には正確な数値は周波数帯や送信電力、信号処理方法など多くの要素に依存しますが、ここでは概略のイメージを示します。
1. パイオニア10号に指令を送信した当時の地球側の送信スペック
送信周波数帯: パイオニア10号との通信はS帯(約2GHz前後)で行われていました。
送信電力: 数kW程度の送信機を地上局が使用(厳密には指向性が高く実効的な放射電力(EIRP)はさらに大きい)。
地上局アンテナ: NASAの深宇宙通信網(DSN)では直径64m級(当時)のパラボラアンテナなどが用いられた。
距離: 1973年当時、パイオニア10号は数AUから十数AUほど離れた位置(木星軌道付近~木星フライバイ後)に存在していた。
しかし、この通信信号は当然、宇宙空間を光速で拡散していきます。そのため、さらに何十光年・何百光年先にある恒星系にも到達「はする」ことになります。ただし距離が大きくなるにつれ、電波強度は 1/𝑟^2 で減衰していきます。
たとえば10光年(約10^17 m)先での電波強度は、1AU(約1.5×10^11 m)での強度に比べて
だけ減衰します。1光年は約6.3×10^4AUなので、10光年なら約6.3×10^5AU。そこから
と、10光年先では1天文単位あたりの強度の10^-12程度にしかなりません(実際にはさらに詳細なアンテナ利得・指向性などが絡むのでオーダーで見ています)。
地球のDeep Space Network(DSN)では、数十AU~数百AU程度先の探査機(Voyagerなど)からの微弱な信号を受信しています。これは探査機送信電力が数W~20W程度、周波数帯はやや上のX帯(約8GHz)あるいはKa帯(30GHz)などを使いつつ、高利得アンテナで地上局が受信を行い、さらに超狭帯域で信号処理をしているからです。
しかし「数十光年」のスケールは「数十AU」の1万倍以上離れており、電波強度は数十AUの場合の(1万)^2 = 10^8分の1(10^8倍減衰)よりもはるかに弱くなります。実際は1光年=約63,000AUですから、たとえば50光年先だと
で、数十AUと比べると何万~何十万倍も遠いオーダーになります。よって通常のDSN相当のサイズ(直径 70mクラス)では、とても検出困難と考えられます。
もし「同じS帯の数kW送信・70m受信機」という想定で数十~数百光年先からの信号を捉えるには、以下のいずれか、あるいは複数の組合せが必要になります。
数km級、あるいはそれ以上の直径が必要になる可能性がある。現実的には困難。
数十~数百~数千ものパラボラアンテナを地球規模・あるいは月や宇宙空間をも巻き込む形で電波干渉計として合成し、膨大な合成口径を得る。将来的なSKA(スクエア・キロメートル・アレイ)などの拡張構想に近い。
信号がわずかでもバンド幅を極端に狭くすればS/Nは向上する。狭帯域SETI観測のように、Hzオーダー・mHzオーダーまで絞って長時間積分する、など高度なデジタル信号処理を駆使する。
もともとの送信側が極端に高出力・高利得アンテナで指向性を絞って送信する
受信側の負担を減らすには送信電力や指向性ゲインを桁違いに高める必要がある(大電力ビーム送信)。
実際に未知の星間通信を成立させるには、上記のように「超高性能アンテナ」+「超狭帯域処理」+「相当の送信電力」という組合せが必要になります。
結論としては、「今の地球の技術でも理論的には可能」ですが、「実用的な設備規模」や「膨大な観測時間と信号処理」が必要です。たとえば以下のような状況が考えられます。
たとえ非常に微弱な信号でも、周波数を極端に限定し、長時間データを積分(平均化)することでノイズを下げ、S/N比を稼ぐ手法がすでに行われています。SETI研究では、広範囲な周波数を走査しながら狭帯域の人工信号らしきものを探索する手法がありますが、それをさらに極端化して、特定の周波数を狙って超狭帯域・長時間積分すれば、送信電力が小さくとも検出の可能性は上がります。
星間ガスや散乱などによる減衰は、電波の周波数によっては大きくなる場合があります。また、地球の大気や地上環境雑音(人工衛星やレーダーなど)の影響も無視できません。さらに「どの星方向を狙うか」「どの周波数帯で通信しているか分からない」という問題もあり、実際に「地球の既存装置でキャッチしよう」とするには、相当の観測リソースが必要になります。
4. まとめ
数十~数百光年先でパイオニア10号への指令電波を受信するためには、非常に大口径のアンテナや、巨大アレイ(電波干渉計)、狭帯域観測・長時間積分などが必要となる。いわゆるパワーやアンテナゲイン、受信系の超高性能化なしでは、通常のDSNクラスの設備ではほぼ検出不能なほど弱い信号になる。
地球側が“同等の距離”から飛んでくる電波信号を検出できるかどうか
理論的には、超狭帯域・長時間積分を組み合わせれば、今ある技術の延長でも検出可能な可能性がある。
ただし巨大施設(たとえばSKA等)のように大規模なアンテナアレイと高度な信号処理を組み合わせることが前提になる。現行の設備でも「SETIレベルの狭帯域探索」は可能だが、何十光年も先に存在する非常に弱い信号を特定の周波数で捉えるには、相当の工夫と時間が必要である。
つまり、「1973年にNASAが送信した電波は理論上は恒星間を伝播し、もし受信する文明があれば捉えられるはずだが、実用上はかなり大規模・高感度な設備を要する」というのが結論です。また、同様に地球側も「もし相手側が数十光年先から似たような出力で信号を送ってきた場合には、非常に狭帯域で長時間積分するなどの先端的な技術を駆使すれば、ギリギリ検出の可能性はある」ということになります。
巻き込まれてる側面もあるけど、信号処理の理論を理解できないと信号処理の関係のソースコードが読めない人種というのが意外といる。
そして、信号処理の理論は簡単なものでも高校の数学をある程度理解してる前提で書かれてる。
あと、コンパイラーとかセグメント木あたりに手を出すとわかるけど、モナドとかオートマトンとか数学由来の訳の分からん単語があほみたいに出てくる。
かといってここら辺はライブラリーがライセンスの関係で使えなかったり、ライブラリーを使えたとしても、ライブラリーだとパフォーマンスを追求するうえで手がとどかないみたいなことが割とあって…
つい最近も
B+Treeのキーをバカまじめに更新してると「さくさくエディター」並みの速度を出せないなあ…
かといって色々調べても難しいなあ…
モナドって何?
みたいなことがつい最近起きたばかりだ
長谷川 りな
2013年(平成25年) 関西大学システム理工学部電気電子情報工学科入学
2016年(平成28年) 夏季休暇に中原大学(台湾)に滞在、ELTICOM*において
Best Paper Awardを受賞
2017年(平成29年) 関西大学システム理工学部電気電子情報工学科卒業
2017年(平成29年) 関西大学大学院理工学研究科特待入学
2018年(平成30年) 南洋理工大学(シンガポール)に滞在、共同研究
Journal of the Acoustical Society of Americaに採録
2019年(令和元年) 関西大学大学院理工学研究科コース首席卒業
2019年(令和元年) 日本光電工業株式会社(医療機器メーカー)入社(技術職)
学生時代は、母子家庭ということもあり貧乏学生だったので、いろんなバイトを掛け持ちしていました。塾講師、パチンコのホールスタッフ、リサイクルショップ、野外フェスでの日本酒の売り子などなど・・・。高校時代から大変なことが続きましたが、人に恵まれてここまでやってこれました。特に高校・大学時代の友人、研究室の先生、バイト先のオーナーや店長には感謝してもしきれません。家庭の事情により、実家ない私ですが、所沢はそんな私を受け入れてくれる街です。
いろいろしくじってきたが、その後のことも考えると、人生で一番大きなしくじりだったと思う。
を検討していた。
コンピュータと人工知能に関心があったということが候補を選んだ理由だった。
当時、LinuxやFirefoxなどのオープンソース活動に興味を持っていた。
また、脳科学や認知科学、人工知能など人間の知能に関する分野にも興味を持っていた。
研究分野としてはOS・コンパイラなどのコンピュータの基礎研究という印象を受け、
工学の方が自分の嗜好に近いと考えて工学部の学科を検討することにした。
工学部機械情報学科はロボティクスを中心とした情報を扱っていて、
ロボットのハードウェアへの興味が低かったことから優先順位を下げた。
そして、
を候補として考えた。
機械系のカリキュラム・研究も含まれていて、2つの学科が扱っている分野が共通していた。
違いとしては、システム情報工学では応用物理系の内容を中心に扱い、
知能社会システムでは機械系から社会工学・経済工学まで扱っているという違いがあった。
そして、次の理由から知能社会システムコースを候補として考えた。
私は教養学部での講義からゲーム理論やシェリングの分居モデルなどの話題に触れ、
また、当時行動経済学や経済への物理学の応用などの書籍を読み社会科学系にも興味を持っていた。
人工知能やマルチエージェントや進化計算などの複雑系にも興味を持っていた。
また、自分の関心がある講義が他学科にも分散していたことから、
講義を取りやすいことも良いと考え、自立して科目を選択できると考えた。
また、製造業や電器メーカーの不調から従来の工学系学科に進んでよいのかと悩んでいた。
できて数年の学科だということで新しいことができるのではないかと無根拠に考えていた。
そうして工学部システム創成学科知能社会システムコースに進むことにした。
そうして、システム創成学科知能社会システムコース(PSI)に進学したが、
思うようにはいかなかった。
幅広い分野を扱いつつ、講義数が少ないということで全体的に内容が薄く、未消化気味だった。
また、講義間の関連性が薄く、体系的に学べることが少なかった。
などの工学の基礎となりうることは扱うのだが、基礎に留まっていた。
また、講義を受けてのレポートが中心で理工学の演習は少なかった。
工学部だから機械や電気ではなくても理数系を基礎として扱うのだろうと考えていたが、
予想とは違い少なかった。
統計は理工系でも社会系でも重要なものだからもっと力を入れて欲しいと思う。
そのため、ディスカッションやプレゼンテーションなどの機会があったが、
幅広い分野を扱っているということもあり、学生層が広かった。
その分、興味が合いそうな同級生を見つけにくかった。
カリキュラムが少ない分、就職活動を頑張って学部で外資などに就職しようという
学生も多かった。
全員が全員そうだということはなく、修士も進むことを考えている学生もいた。
他学科聴講は思ったよりもできなかった。
受けたいと思った講義の時間が被っていたり、前提知識が不足していたりして、受講が難しい場合があった。
学科での講義に関心が持てず、モチベーションが下がっていたということもあった。
研究室には学部3年後期に配属される。カリキュラムの少ない分をそこで補う想定らしい。
しかし、私が所属していた研究室では、学部就職する学生が多く、
他大学からの院生やポスドクが中心であまり教育が受けられなかった。
システム創成は機械情報学科や計数工学科と違い、情報理工学系研究科ではない。
進振り時点ではそこまで差を考えていなかったが、講義の内容やPCなどの設備が違っていた。
大学院でより専門性を高めたいと考えて情報理工学系研究科に進んだが、
実力の不足から、大した実績を上げることができなかった。
学部では幅広い内容を身に着けて、大学院で専門性を高めるということを考えていたが、
他の研究室に進学するならば、その研究室と密に連絡を取って、院進学前から
必要な勉強・研究計画作成をしないと、講義や就活で研究に必要な時間が取れなくなる。
このようなことから、大学院では成果を出せず、就職活動もあまりうまくいかなかった。
振り返ると、それまでの人生で初めて大きな意思決定をする機会だったが、そのことを十分に認識できていなかった。
取捨選択するということができず、幅広いカリキュラムがあるということから選択肢がありそうな道を選んでしまった。
安易に考えず、具体的にメリット・デメリットを書き出して、検討すべきだった。
それまでどれかができるということではなく、どれもできるようになろうとしてきたことがあり、
立花隆さんの影響を受けていて、文理ともに学ぶことに憧れていたが、
その難しさを分かっていなかった。
意思決定をするために必要な情報を集めて、裏を取るということができていなかった。
まあ、サークルに工学部の先輩がほぼいないという事情もあった。(普通工学部は忙しいからな。)
もう少し聞けていれば、進学先を再検討していたと思う。
自分が目指すような幅広い分野を学ぶということを行うのであれば、基礎を幅広く身に着けることを
念頭において進学先を選ぶべきであった。
そう考えると、情報科学科や計数工学科に進むことを考えるべきだったと思う。
理学部情報科学科については小中高からプログラミングを扱っている人が多いと聞いていて気遅れしていた面もあった。
独学で学ぶようにはしていたが、学科に進学した方が教育や同級生など成長できる機会は多かった。
学部で情報系の基礎を身に着けて、大学院で応用に広げることも十分考えられたが、当時はその想定ができなかった。
あと、当時情報科学科や電子情報学科が進振りの最低点(底点)が非常に低く、避けた方がよいかなと思っていたところもあった。
進振りで高い点のところを目指していたわけではないが、つい点数に左右されてしまった。
今の機械学習やディープラーニングは自分が当初やりたかったことに非常に近かった。
大学院でそちらに進もうとしたが、実力不足から挫折してしまった。
情報科学科や計数工学科に進学していれば、その分野に進むチャンスが大きかったと思う。
教養学部時代に自分がやりたいことについて、教授に相談したり、一般書籍ではなく学会誌を読むなどしていれば、
進路を明確に決めて、進振りでの失敗も避けられたのではないかと思う。
進振りでは点が足りなくて進学できなくて失敗したという話を良く聞くが、
これは進学先の選択を誤ったという話である。その分、あの時選んでいればという後悔が大きい。
システム創成について、自分の失敗から悪い面ばかり記載してしまった。
私の進振りでのしくじりを具体的に書くことで何か参考になればということで書いたものである。
自由度が高い分、自分で計画を立てて行動できる人にとっては良い面もあると思う。
私自身は進路・キャリアを良く決めないまま進学してしまったため、うまくいかなかった。
など学科の色がはっきりしてきて、その方面に目指す人にとっては良い学科と思う。
(カリキュラムはあまり変わっていないらしいという話も聞くが。)
失敗したと思っても、将来どうなるかは分からない。
現に情報系学科は過去は非常に底点が低かったが、今は高騰している。
システム創成ではないが、大学院で他分野に進んで研究者として業績を上げている知り合いもいるので、
あまり後悔せず、前を向いて進んで欲しい。
>いやだから、既存のソナーの信号処理アルゴリズムに機械学習やディープラーニングが使われてないとでも思ってるのか?
既存のソナーの信号処理アルゴリズムにAI(機械学習やディープラーニング)が使われていることと、船乗りの作業がAIに代替される(結果、将来性が無い)ってのは、全然違う話でない?
>そもそも現代の機械学習やディープラーニングがやってるのは「機械化」や「自動化」でしかないぞ。もしかしてSFみたいな意思を持った人工知能みたいなもんが既にできてると思ってるのか?
ゲーム業界でプログラマーとしてやっている身から考えを書いてみる。
「私のフォロワーの方にはクリエイターやゲーム関係の方がたくさんいらっしゃると思います。皆様の意見を聞かせていただきたいです。」
https://twitter.com/gamemakerdiary/status/1413185724849954817
ゲーム会社の経理や人事でも、好きなゲームに関わっているということで満足する人もいる。
小規模なゲームをひとりで全部作りたいのか、中規模以上のゲームのどこかを担当したいのかくらいは考えておくべき。
次は専門職。シナリオ、グラフィック、作曲といった専門の教育を受けてないと手も足も出ない分野。
これも解像度を上げると、コンセプトアート、キャラデザイン、ムービー、モデリング、ライティング、UIデザイン、録音、効果音などなど無数に分類される。
ゲーム会社、特にコンシューマゲームのプログラマーとしてやっていくなら、学生時代に身につけている言語や環境よりも、「大規模なものや複雑なものを怖れず学ぶ」資質が大事だと個人的には思っている。
ゲーム開発は、ゲームエンジンやフレームワーク、ライブラリ、APIを多用する。それもネットで検索してもまったく情報がない独自のものだったりする。
そもそもゲーム機はOS自体が普通と違うし。ビルドに使用するツールチェーンもかなり複雑になっていることが多い。
簡単な例でいうと、Visual Studioよりもテキストエディタの方がシンプルで使いやすいと思うタイプは要注意だ。
複雑でも多くの人に支持されているツールは何か良いことがあるはず、と思ってVisual Studioを使いこなす気持ちを持とう。
学生時代の作品もProcessingなどではなくC++で書くべきとか言われるのもこの辺に通ずる。
あとプログラミングに自信がある人で、既存のライブラリは複雑で使いにくいからとオレオレライブラリを作ってしまう人も要注意。
実は俺もそういうタイプなので苦労した。
ゲーム開発は複雑なものをそのまま使わなくてはならない日がいつか必ず来る。
既存の複雑なものを使う能力と言うのは、つまり大量の(英語を含む)ドキュメントを読む能力、大量のソースコードを読む能力でもある。
シンプルで洗練されたコードも素晴らしいが、洗練されたコードをめちゃくちゃ時間かけて書く人よりも
多少いまいちでも手が止まらず書き続けられる能力がある人の方がまわりには多い。
そういう人は、いまいちなコードに何度も手を加えて最終的にはまともなコードにしてしまったりする。
ゲーム全般やゲーム開発に関する知識量は、プログラマーとしても最大の武器だ。
有名なタイトルがどういう特徴を持ったゲームなのか広く知るのには膨大な時間がかかる。ゲーム好きでそのあたりに詳しいだけでも強い。
Unityなどのゲームエンジンに触ったことがある、というのもスキルというより知識の武器という意味合いが強い。
入門書レベルではなく、UniRxとかのプログラムの書き方の根本からくつがえるようなライブラリ経験とか、Unreal Engineのソースコードをいじったことがあるとかレベルなら超強い。
大学のゲームサークルやインディゲーム開発のグループで経験がある人はここが強いように思う。グローバルゲームジャム参加経験者とかも。
それから、ここが一番言いたかった点なのだが、前述の専門職とまたがる知識のあるプログラマーはめちゃくちゃ重宝される。
グラフィックならシェーダーがめちゃくちゃ書けるとか、3DデータやIKを扱った経験があるとか、3Dベクトルや行列演算の数学が得意だとか。MayaやBlenderを使った経験があるだけでも強い。
サウンドならDAWや波形編集ソフトを普段から触っているとか、信号処理に詳しい人。
つまりデザイナーやモデラーや音楽家の気持ちがわかって、その人たちと専門用語で話ができるプログラマーはどこでも食っていける。
あと最近はAIに強い学生もゲーム会社は積極的に採用している。
ひとつの専門知識+プログラミング能力を身につけるのはわりとおすすめの戦略だ。ゲーム開発の全部に詳しい必要は必ずしもない。
CEDECなどのカンファレンスに参加して、どういう知識体系があるのか知って、自分の強みを考えよう。
私は旧帝大学院で情報工学をやっていて22卒というのに分類されるものだ。3月から日系大企業の就活を受けてきた中で、これまで受けてきた企業や並行して受けている外資に比べて面接でのストレスが溜まりまくったので駄文ながらここに吐き出しておきたいと思う。
就活は去年の終わり頃に始めていて、所謂コンサルチュアと日本人なら聞いたことあるだろうWeb系の内定を手に入れた。ただ自分の中で計算機科学の知識を生かしてソフトウェアエンジニアとして働いてみたかったのでメーカー系が選択肢として浮上し、いわゆる電機メーカーやら自動車メーカーの大手日系企業を受けた。
正直それまでは日系企業・大企業は堅苦しくてあんまり内製しておらずマネジメントばかりだとか配属ガチャなるものがあるとかというので敬遠していたのだけれど、色々な企業説明会に参加する中で少しずつそういう風潮が変わってきているんじゃないかと感じられた。そこで選考を受けたのだが、書類選考は全通過したが一次面接で落ちまくる。落ちる理由として申し込んだところと自分の想像してる仕事内容に微妙に乖離がある事が多い(インターン経験がないので)ことや研究開発職に申し込んだので単純に他の応募者が優秀なのもあると思うが、選考中の面接で個人的にストレスを感じた点をあげていきたい。(勿論これは学生就活生側の一方的な立場で、企業側面接官側の立場では的外れと感じるところはあると思う)
コーディングテストやら知識問題やらあるけど落ちたことはない。散々コーディングテストしてきた中で問題の難易度が一番高いと思ったL社も一発で受かるくらいの実力はある
WebアプリやGUIアプリ、自作〇〇などの車輪の再発明してみる系など
そんな面接のスタイルで何がわかるんだよっていうのがある。例えばWeb系だと熱意とスキルが重要視されてると感じたし、今受けてるみんな知ってるG社はオンライン面接で問題を解く中でスキルと課題解決能力、コミュニケーション能力を測っているんだろうと感じた。しかし日系企業は過去の経験を話すだけの誤魔化しがきくものだし、そのなかで謎にチームワークを組んで困難を乗り越えたエピソードがある人が評価されるという仕事に繋がる能力との根拠も分からない要素で採点されているのが本当に分からない。別に技術力ファーストだとは思ってなくて同期には研究でめちゃくちゃ優秀なやつもいるしそういうのもスゴイと思うのだが、それ以上に自分の能力がなくても苦労して分かりやすい凄そうな結果を得られた人を評価する雰囲気が感じられるのだ。言い換えるとヤンキーが良いことした方が評価高いパターンだ(自分としては普段からコツコツ努力していざというときには大した努力をせずに結果を出せてしまう方が評価するべきだと思っている)。
結局ニンゲンは評価する側の尺度でしか他のものを測れないと思うので、さして多様な評価軸になってないと感じてしまう。まぁそれで日系企業は成功しているのだからこの風土は変わらないのだろうね……。
あと以下に自分がされてよく分からなかった発言をまとめる(あくまで一部企業で言われたことです)
こうやって書いてると、特にトップクラスの外資系企業やWeb系は採用過程で本当は能力ある人に偽陰性を出してでも偽陽性(=実力なく企業に入られること)を弾く傾向があるのに対して、日系企業は面接官に合うかどうかに比重を置いたランダムサンプリングな感じが、自分のこれまでの努力を無下にされた気がして不愉快なんだろうなと思いました。
あーー新卒で600万くらいくれてエンジニアさせてくれるところないかなぁ〜〜(みんな知ってるG社は受かると思ってないのでね)
これまで主に通信で使われてきた光技術を、端末やサーバーでの情報処理にも適用します。具体的には、デバイス内のチップ間やメニーコアチップ内のコア間の伝送、チップ内の信号処理なども光化することで、光から電気への変換処理を不要にし、低消費電力や低遅延を実現します。
これがオールフォトニクス・ネットワークです。NTTはオールフォトニクス・ネットワークの目標性能として、低消費電力、低遅延、大容量・高品質の3項目をそれぞれ現在の約100倍の向上を目標としています。
いまGbeはメタル結線だがそこも光になるというかんじなのね。
10GbeのSFPモジュールとか既にあるけどそれの100倍速くて安くなる感じか。
中国がバックドア仕込んだ5G機器を売り込んでくれたおかげで、世界の視点が相対的に日本勢の信頼度をふりかえるようになってくれた感じか。
フーリエ変換やウェーブレット変換くらいまでは良いとして、問題はそこからあとだ。
センサーでデータを取ってくると、ノイズに埋もれていたりして、どうやってノイズを除去するかと悩む事になる。
他に信号だったらピークを検出し、ピークを数えたり、ピークの位置や半値幅を検出したかったりする。
オーバーシュートを無視して振幅を測りたかったりする。(アンダーシュートとオーバーシュートの振幅を検出しがち)
知っている人は知っているのだろうが、Googleで”アルゴリズム"と入れてしまうと、プログラミングよりのアルゴリズムしか出てこない。
"信号処理"+"アルゴリズム"だと、フーリエ変換やラプラス変換は出てくるが、そこから先が出てこない。
書籍も似たようなもので、信号処理の本を探すとフーリエ変換やラプラス変換あたりで止まっている。
"時系列データ"で検索すると、横軸が日付になるか、株価といったものになり、求めてるのとは違ってくる。
matplotlibが定番で、より綺麗なグラフを描くならseabornと言われているが満足できなかった。
ここ(https://qiita.com/skotaro/items/cdb0732ad1ad2a4b6236)にあるようなグラフは参考にしているが、もう少し応用をと思うと難しい。
TableauかPowerBIのような色合いが欲しい。
ディープラーニングをやっていて、むしろかっこいいグラフを描くのを学習してくれと思う。
エクセルでのグラフも手修正にかなり時間がかかるが、Pythonで描いて調整してを繰り返すのは時間がかかって仕方ない。
Plotlyでも良いのだが、こちらも修正しようとすると一仕事となる。
信号処理をしたり、FPGA用のHDL吐き出したり、画像処理やロボット制御はMATLABを使っていた。
Pythonのライブラリはかなりあるのだが、OpenCVとの連携はいいが、ハードとの連携になると微妙に不便。
MATLABも使いやすいかといわれると微妙である。あと高い。Juliaに期待してるがグラフを描くところで早くなくて躓く。
(MATLABをPythonで呼び出せばいいじゃんと言われそうではある)
論文の検索だと、google scholarやhttps://app.dimensions.ai辺りを使っている。
Mendeleyでそれなりに満足しているが、煩雑な感じもするので、もう少し良いのがあれば知りたい。
THKのリニアモータ(http://www.ea-thk.com/?q=ea_jp/node/3903)とか三菱のLM-H3あたりが欲しい。
高速かつスムーズに動く。
ACサーボはロータリーエンコーダのおかげで精度は出るのだが、速度が欲しい。
レニショーやミツトヨのが欲しいのだが、Amazonや楽天などでは買えない。eBayも、AliExpressもない。
3Dプリンターの精度を上げるなら必須ではないかと思うのだが、売ってないので試すことができない。
ブート関係やパフォーマンスチューニングに欲しい。普通に買えない。
RISK-V用のそろそろ出てきて欲しい。
サーボ用のが欲しい。Amazonだと良いのがない。
Amazonですら売ってなくて困る。