いまの自分が、どの生成AIを使ってるかを振り返ってみる。というか振り返ってみたら、なんかあまりAI使ってないことに気づいた。
基本Gemini
生成AIは主要な選択肢がいくつかある。
- OpenAI ChatGPT
- Anthropic claude.ai
- Google Gemini
- perplexity
一時期は上記すべて有料プランを課金していたけど、最近はGoogle Gemini一本に絞っている。すべて月額課金だった中で、GeminiだけはCX54の購入特典でGemini Advanced 1年分の契約が残っているというのもあるけど。個人的には現時点でGeminiをベースに使っていくのが良いんじゃないかと思っている。
ChatGPT・claude.ai・Geminiの3つなら大した違いは無いと思う。もちろん中身のモデルとかアプリケーションに違いはあって、「今この瞬間にその用途で使うならコレがおすすめ」みたいなのが挙げられるケースはある。しかしどの製品も頻繁にアップデートして追いついてくるし状況も変わってくる。用途を限定せず日常的になんやかんや使いたい場合、どれを選んでも大差は無い。
その中でもGeminiがおすすめだと私は考えている。GeminiはGoogle Workspaceに付いているので(そのうち値上げすると思うけど)、多くの業務環境で最初から結構使える。Google Workspaceの各種アプリとの連携、Google検索との連携、NotebookLMのようなアプリケーション、データの安全性とかガバナンス的な観点、価格面とか、全方位を強化してきていて、特にビジネスで使う場合のスタンダードになれる。もちろん個人で日常使いするうえでも、ChromeブラウザやGoogleカレンダーと連携できるのは便利だと思う。実は私はそのへんの拡張的な機能はほぼ使ってないんだけど...
圧倒的によく使うのはDeep Research。これは革命。インターネットに書いてあることと一般的な思考能力で導き出せることであれば、Deep Researchでかなり効率化できる。やっている事は裏でGoogle検索しまくってまとめるだけなんだけど、数十ページぐらい読み込んでレポートとして仕上げるのは人間がやると結構大変な作業で、これを簡単なプロンプトを与えるだけでバックグラウンドで自動で遂行してくれるのがえらい。他のエージェント機能みたいに途中で方向性の変更が必要な事も無く、いちど指示したら放置すればOK。インターネットに答えが無い事には弱いけど、それは人間がググって調べたときも同じ。インターネットで時間かけて調べれば分かるようなことを、AIに任せられるのが大きなメリット。
Geminiの欠点は、最先端技術の投入が一歩遅れていること。古くはOpenAI GPTsのようなプリセット設定機能が登場するまで遅かったし、OpenAI o1のようなReasoning ModelがGeminiに搭載されるまでも時間が空いた。今後も、OpenAIやAnthropicとかが何か別のすごいAIを先に出していくと思う。でも遅れているのは一歩だけで、ちゃんと遅れながらもついてきてくれる。おそらく、技術力や製品開発力が遅れていると言うよりかは、製品としてのクオリティや安全性などをある程度慎重に見ながらリリースしているからだと思う。今のところGoogleは莫大な金と人員を割いてAIを推進しているので、市場からめちゃくちゃ遅れてAI界隈で取り残されるみたいな事は今後数年間は起こりにくいと思う。Geminiを追っていけば、すこし遅れるかもしれないけどちゃんと最先端のAIがそのうち手に入る。
また、Geminiのデータの扱いの安全性について少し触れたけど、「Gemini使ってればデータは安全」なんていう事は全く無いので、実際にデータを安全に取り扱うことが求められるシーンではよく確認してから使わなければならない。入力したデータがAIの再学習に使用されるかどうか、内部の人間のスタッフが改善やサポートのために入力内容を読むかどうか、とかが変わるので、ポリシーとかをよく確認すること。というのはGeminiに限った話ではないけど、Geminiは似たようなサービス名だけど条件によってデータの扱いが変わるとかが結構多いので、特に注意が必要。「Gemini Advancedに課金しているかどうか?」「Google Workspace経由のビジネスアカウントとして使っているかどうか?」といった条件で分岐する。特にNotebookLMは登場してしばらくの間は利用規約やプライバシーポリシーに相当するものが見当たらず、Googleが提供しているにもかかわらずビジネスで使って良いのかどうか謎の怪しいサービスだった1。天下のGoogleでもそういうサービスを出す時はある。
色々書いたけど今のところGeminiはAIを日常使いするうえでのスタンダードと言えると思う。「LLMといえばChatGPTが定番」とか「Claudeが性能が高い」みたいな風潮はあるし否定はしないけど、個人的にはGeminiを出発点として、そこに足りないものがあれば別製品で補ったり乗り換えていくのが良いのではないかと思っている。
APIはOpenAI
生成AIチャットはGeminiと言ったけど、APIから生成AIを呼びたいときはOpenAIのAPIを使っている。
日常的に使うのに個人的なおすすめはOpenAIかAnthropicの2択で、これらはハードリミットが簡単に設定できるという特徴がある。生成AIのAPIはいずれも、料金体系が極めて分かりにくく予測不能しかもアップデートが激しいという欠点がある。「100万トークンで1ドルです」とか言われて、いったい月額いくら掛かるのか分かる人いるのか?特に個人や実験的プロジェクトとかでちょっと使いたいという場合、予算上限を設定してそれ以上は強制的に停止するような機能があるOpenAIかAnthropicが、安心して使えると思う。Google Cloud VertexAIやMicrosoft Azure OpenAI Servicesは後からで良い。
OpenAIとAnthropicどちらを選ぶかは好みで良いと思うけど、メインをひとつ選んだ方が良い。利用額に応じて最新機能が早く提供されたりする特典があることがあるため。私は単にOpenAIのアカウントを先に作ったのでそっちをメインで使っている。というかAnthropicのAPIって昔はウェイトリスト制で使えなくてずっと待ってたのになんか知らないうちにパブリックになってなかった?
なおOpenAIやAnthropicのAPIを使うのは日常的な利用やPoCぐらいにとどめておくべきで、業務で検証を終えてプロダクトに組み込むとかになったらこれらのAPIよりも、Google Cloud Vertex AIやMicrosoft Azure OpenAI Serviceを使ったほうが良い。ちゃんとSLA確保されててモニタリングとかデータの扱いとか色々ちゃんとした機能のあるパブリッククラウドの製品を使った方が良い。
GitHub Copilot
私はAIにコード書かせるのには消極的で、DevinやClineなどはほとんど使っていない。理由は簡単で、生成AIはコードを増やすことは得意だが、私は別にコードを増やしたいわけではないから。コードが増えるほど報酬が貰えるとかビジネスがうまくいくとか大学の宿題が完了するとか何らかの良いことがあるなら生成AIは適していると思う。私も以前担当していたプロジェクトでかなりコードを書く量が求められた時があって、その時に生成AIがあったら働き方が変わっていただろうな、とは思う。けど今の私はそういうわけではないので、あまり積極的には使っていない。
もちろん、書いたコードをもっと良くできないかリファクタリングするとか知らないメソッドを調べるとかエラーを分析させるとか、そういうコードを書く以外の開発業務にはGeminiを使いまくっている。特に技術選定はもう先述のDeep Researchが無いとできない体になってしまった。それでもコーディングにAIを使うのには消極的。
しかしそうは言っても、今の時代プログラマーとしてコーディングAIを全く使わないのは違うと思って、最近はGitHub Copilotのエージェントモードで個人のプロダクトを開発していた。Gemini 2.5 Proを使っていて、体感的には、生成されたコードがそのまま採用できるのが3割、少し手直しが必要なのが3割、全面的に書き直しが必要なのが3割、Geminiがエラーで返ってこないのが1割、という具合。Reactのhooksみたいな十分に枯れた書き方には強いが、ライブラリの最新バージョンのイケてる書き方とかDeprecatedに新たに追加されたメソッドとかそういうのには弱い。この辺はAIエージェントに検索ツールを使わせるとかで対処できると思う。自分のプロダクトに自分の書いたものではないコードが増えていくのは違和感はあるが、普通のビジネスにおけるチーム開発もそういうものなので特別に変なことではない。
でもDevOpsだとか言ってきた中でコーディングだけをAIに任せればOKというのはやっぱり個人的には受け入れがたく、今のところコーディングAIエージェントを積極的に使うべきとは言えない。コードを書いて、コミットして、レビューして、デプロイするということは、そのコードがプロダクション環境で運用され保守されることに責任を持つということであり、今のところAIがそのレベルに達しているとは思わない。しかしおそらくそういう時代も変わって、DevもOpsも全部AIに任せられるような時代もすぐに来るような気もする。
エンジニアリングというのは現実世界のビジネスをコンピュータの世界に写像することだと思っていて、今までその写像をうまく作る方法としてプログラミング言語という多少の専門性が求められる手法が君臨してきた。今後AIの時代になっていって、プログラミング言語をうまく書くこと自体の価値は下がっていくと思うけど、ビジネスをコンピュータの世界で記述する仕事というのは残る。その残る仕事はプロンプトエンジニアリングなのか、AIワークフローの開発なのか、AIエージェントをデプロイすれば終わりなのか、今のところはよく分からないけど、なんらかの仕事は残ると思う。個人的には、パブリッククラウドのIAM権限設定をするのがエンジニアに残される最後の仕事ではないかと思っている。
MCPに夢を見ない
MCPは全然やっていない。アプリ開発していてAIとツール連携が必要になる場合、基本的にOpenAI Agents SDKとかLangGraphとかを使って都度実装している。
MCPは「AIにとってのUSB」という意味不明な比喩を公式が使っているので話がややこしくなっているが、私はMCPとは「モデルの呼び出しとツールの呼び出しを疎にすることで、再利用性を高めるための技術」と解釈している。そこで「モデルの呼び出しとツールの呼び出しは疎であるべきというのは常に正しいのか?」が疑問。
かつてマイクロサービスアーキテクチャが流行った時に、なんでもマイクロサービスにしようとしてシステムの複雑度が不必要に上がったみたいな話を一度は聞いたことがあると思うけど、MCPにもそれと似たものを感じている。「モデルの呼び出しとツールの呼び出しは、同一システムのできるだけ近い所に密で置かれるべき」ではないかと思っている。これは私の感覚であってあまり明確な根拠は無いけど、ひとつだけ引用するのは2020年のMetaの論文。これは何かというと、みんな大好きRAG(検索拡張生成)を提案した論文である。RAGという言葉はどんどん広義になっていって「AIで検索すること」ぐらいの意味しか持っていないと思うけど、この論文によるとRAGとは「生成AIと検索とを結合し、End-to-Endで学習する」手法となっている。つまりRAGの始まりは、生成AIと検索を密に実装することで性能が上がるという話になっている。これはMCPと正反対の考え方であることが分かる。もちろん2020年というのは生成AIにとっては紀元前の原始時代のようなものなので、「2020年の論文が全部正しいから2025年現在MCPを使うべきではない」と結論づけるにはあまりにも乱暴すぎると思う。しかしMCPを用いる際には、「それ本当にMCPでやるべきか?Agents SDKのTool Useとかで密に実装したほうが簡単では?」という観点を頭の片隅に入れておくのは悪くはないと思う。
もちろんMCPにもメリットはある。それが冒頭で述べた再利用性。ツールを不特定多数のAIから呼び出したい場合、MCPで用意しておけば都度実装の必要が無い。例としてSaaSを開発していて、ユーザの使っている様々なAIから種類を問わず自由に呼び出して欲しいような場合、MCPサーバーを提供することが考えられる。これはMCPの明確なメリットになる。ただし開発しているSaaSが性能もバラバラの様々なAIから勝手に呼び出されるのを想定してサービス運用するのは結構大変なのではないか?とも思う。 逆に言うと再利用性が必要ない場合、たとえばワークフローに特定のAIを組み込んでツール連携するようなアプリを開発する場合、MCPを使わず同一システム上に実装したほうが検証やデプロイなど様々な面で恩恵があると思っている。
MCPは言うまでもなくセキュリティ面の不安も大きい。MCPの公式チュートリアルを見て、よく分からない謎のnpxをAIに実行させている所は結構嫌だな、と思った。これは公式ドキュメントなので、悪意あるコマンドが仕込まれていたりする可能性は高くはないけど。MCPだからといってすべてのAIですべてのツールが使い放題という事は全然なく、MCP開発者を信頼して利用するか、それが難しいなら自分でMCPサーバを実装し直すことになる。自分で実装し直すということはMCPのメリットである再利用性を大きく削ることになる。
MCPはAIにとってのUSBらしい。確かにUSBは便利だが、PCのすべてがUSBで出来ているわけではない。CPUやRAMを無理やりUSB接続しようとしていないか?USBでGPUを接続することは不可能ではないがPCIスロットに差し込んだほうが良いのではないか?それと同じように、何でもMCPにしようとせず別の方法でアプリケーションに組み込んだほうが良いのではないか?という疑問を持つことが大切だと思っている。
そもそもMCPはプロトコルである。「MCPがすごい」と騒ぎ立てるのはインターネットの黎明期に「HTTPがすごい」と騒ぐようなものである。確かにHTTPはすごいけど...MCPに触れるのは、Webにおける「Yahoo!検索」とか「2ちゃんねる」みたいに、MCPを使ったキラーアプリケーションの第一世代が出てきてからで遅くない。そしてその時はおそらく大多数の人にとって、MCPが何なのかを意識する必要は必ずしも多くはない。
まとめ
こうして振り返るとぜんぜんAI使っていないな。使っていないのはここまでに述べてきたような理由があっての事なんだけど、でもこの時代にもうちょっと色々使っておくべきではないかとも思う。
大切なのは、柔軟に変化を受け入れる姿勢だと思う。特定のAIに全部賭けるとかではない。仮にいまAIを使うべきではない判断が正しかったとしても、明日からもずっと使うべきでないとは言えない。逆に、AIを使っていることや知っていることが今はアドバンテージになるとしても、明日もそうだとは限らない。そういう時代だと思う。この記事に書いてあるのは2025年5月の私の意見であって、これが未来においてずっと正しいとは思っていない。だから書き残しておくことに価値があるとも思っている。未来に振り返って読んでみて「こいつアホだな」と思ったらそれが成長した証拠になる。