Twitterでよく見かける「生成AIすごい!」と手放しで褒め称えるツイートが、最近どうにも生理的に受け付けなくなってきた。
確かに、生成AIはすごい。革新的なツールだし、使い方次第では驚くほどの成果を出せる。でも、それはあくまでも「高度な魔法道具(フラスコの中の小人)」みたいなものであって、何でも完璧にこなしてくれる万能のアラジンのランプではない。
特に最近、「AIに命令すればすぐゲームが作れる!」みたいな驚き方をするインフルエンサーが多いけど、正直、それってGitHubからオープンソースのものを引っ張ってきても同じことができるよね? 確かに、AIを使えばコードを出力してくれるが、結局のところ、それを組み立てたり調整したりするのは人間の仕事だ。むしろ、仕組みを理解せずに使うとトラブルのもとになる。
実際、ChatGPTのo1モデルにちょっとリアルなビジネス応用の計算問題を解かせようとすると、結構デタラメな回答が返ってくる。専門知識がある人ならすぐに違和感を覚えるが、そうじゃない人は「それっぽい答え」に騙されてしまう可能性が高い。しかも、自信満々な口調で間違えるから余計に厄介だ。
AIは確立された解き方がある問題ならそれなりに解ける。でも、新しい取り組みに強いわけではない。むしろ、新しい問題に対しても極めて「それっぽい」回答を生成してくれるからこそ、見極めが難しくて危ういところがある。実際、PythonやJavaScriptのプログラミングならまあまあ役に立ってくれるけど、Rustとかになるとかなり厳しくなる。
結局のところ、AIを使いこなすには、それがどこで間違えるかを理解していることが前提になる。嘘を嘘だと見抜けない人にとって、生成AIは便利どころか、むしろ危険なツールになり得る。