どうもです、タドスケです。
GitHub Copilot で GPT-4.1 が使えるようになっていたので、さっそく試してみました。
具体的に「ここが変わった!」とは言いにくいんですが、コードを修正してあげる頻度が明らかに減ったように思えます。
昨日まで考えていた「どうやって精度を上げるか?」のテクニックが、ほとんど用をなさなくなってしまいました……💦
各社が様々な言語モデルをリリースするなか、「一番優秀なモデルは?」という情報が飛び交っている今日この頃。
AI を利用する側の観点から「どの言語モデルが1番優秀か?」を議論することにあまり意味を感じなくなってきました。
順位は日ごとに変わってしまうので、議論してる間に何かを作り、その体験から学ぶほうが有益に思えます。
今のところは、「推論モデルはこういう傾向にある」くらいの大まかな把握をしたうえで、新しいモデルが出たときに「どんなモデルか?」を知るくらいでちょうど良さそうです。
コメント