どちらかといえば、社会の基幹部分にAIを大量適用して、何をしているか理解把握できなくなって、機能が衝突したり故障したりしても修理ができなくて詰んで破滅する可能性の方が高いと思う。
ソフトウェアエンジニアで、「よくわからないけど、実行したらちゃんと動いたんで、よしっ!」レベルでPRを大量に投げてくる輩がいるから、マジでやばいんよな。
「あー、それなりにできる人なんやー」
と思って、そのレベルに合わせたレビューしてたら、ChatGPTで誤魔化してましたっていう、クズ大学生みたいな所業をするアラフォーとかいうクズ呪物。
いや、40超えてる充実経歴(実は詐称(-_-))エンジニアに、ジュニア並みのレビューとかやってられませんて。
「熱脳しゃちょさんって、AIに抵抗があるオールドタイプですか? そんな歳の取り方、したくないですね w」
って殴るぞ、このやろう!
お前のようなクソエンジニアが、AI使いこなしてる気になって、クソPRを大量に投げてくるから、使用禁止にしたくなるんじゃ、ボケ!
それでも、上級エンジニアがちゃんとしてればまだ救いがないこともないんだが、「AI使って人件費削減で大儲けでウハウハ!」って経営者なら、その上級エンジニアに見合った給料を払うとは思えないんで、レビュアーも五十歩百歩のレベルしかいないだろうことは容易に想像できる。
「よくわからないけど、実行したらちゃんと動いたと言ってるし、自動テストも通ってるから、よしっ!!」ってメインラインにどんどんマージしていくはずだ。
匿名サイトでの同僚悪口は最底辺無能の仕草
将来的にAI導入したせいで倒産する企業とかも出てきそうではあるな。 今の生成AIが論理を理解して生成してるわけではないことからして、論理で構成されてるプログラムの仕事を任せる...