ChatGPT、Gemini、Claude。 今やこれらのAIの名前を耳にしない日はありません。
最近、LLMの選択についてあらためて考える機会がありました。
とりあえず一番性能が良さそうなものを使う、最近よく名前を聞くものを選ぶ。
振り返ってみると、私自身もそうしてきた一人です。
ただ、プロダクトにAIを組み込む中で「性能だけで選んでいいのだろうか?」という違和感が、少しずつ大きくなってきました。
性能は、確かに重要です。しかし、AIの性能は変わります。しかも、かなりのスピードで。
アップデートのたびに、賢さだけでなく、答え方の癖や、得意・不得意、考え方そのものが変わっていく。
昨日までしっくりきていたAIが、今日は少し違って感じられる。
そんな経験をした人もいるはずです。
ここで一度、立ち止まって考えてみたいのです。
私たちは「性能の高いAI」を選んでいるのか、
それとも「付き合いやすいAI」を選んでいるのか。
本記事では、ベンチマークの順位や数値の比較ではなく、 「どんな思想のAIと一緒に仕事をするのか」 という視点から、LLMの選び方を整理してみようと思います。
自分自身の理解を深めるためのアウトプットでもあります。
3つのLLMの思想を比べてみる
あくまで私なりの整理ですが、 ChatGPT、Gemini、Claudeの3つのLLMを見ていると、 それぞれに、はっきりとした「性格」があることに気づきます。
- ChatGPT は、 「まずやってみる」タイプです。 限界まで走り、走りながら考える。スピードと挑戦を何より大切にしています。
- Gemini は、 「生活に溶け込む」タイプです。 目立つよりも、いつの間にか役に立っている。そんな存在を目指しています。
- Claude は、 「立ち止まって考える」タイプです。 強力だからこそ、慎重に。人の判断を支えることを重視しています。
どれが正解、という話ではありません。
AIにも「作り手の考え方」があり、それは振る舞いとして表に出てくる。
まずはその前提を共有しておきたいと思います。
ChatGPT
― 限界まで押し広げてみるAI
OpenAIは、AGI(汎用人工知能)を「人間と同等、あるいはそれ以上の知的能力を持つAI」として捉え、その実現を長期的な目標に掲げています1。
OpenAIの使命は、汎用人工知能(AGI)、つまり経済的に最も価値のある仕事において人間を凌駕する高度に自律的なシステムが、全人類に利益をもたらすようにすることです。
ChatGPTは、その思想を最もわかりやすく体現したプロダクトです。
文章を書く、コードを書く、画像を作る。
ひとつの窓口で、できることをとにかく増やしていく。
最近では、動画生成のSoraや、自律的にWebを操作するOperatorなど、
「ここまでやるのか」と思うような機能も次々と登場しています。
OpenAIの姿勢を一言で言えば、 「まず限界まで押し広げてみる」 です。
もちろん、批判もあります。
社会的影響や安全性について、議論が追いつかない場面もある。
それでも、結果としてAI業界全体の到達点を一段引き上げてきたのも事実です。
このタイプのAIは、スピードと突破力が求められるプロダクトでは、非常に心強い。
一方で、判断の理由や責任を丁寧に説明しなければならない場面では、
慎重さが求められることもあります。
OpenAIが描く未来
人間の知的限界そのものを押し広げ、
これまで想像できなかった解決策や発明が生まれる世界。
Gemini
― いつの間にか助けてくれるAI
Googleの思想を理解するには、「世界中の情報を整理し、誰もが使えるようにする」というミッションを思い出すと分かりやすいでしょう。
Geminiは、その延長線上にあります。Google DeepMindのCEO Demis Hassabisは、Geminiの目指す姿をこう語っています2。
私たちの最終的なビジョンは、Gemini アプリが日常業務をこなし、煩雑な事務作業を処理し、新しいおすすめを発見するなど、生産性を向上し、生活をより豊かにする普遍的な AI アシスタントへと進化させることです。
Googleが目指しているのは、目立つAIではありません。
気づけば生活の中に入り込んでいるAIです。
検索、メール、ドキュメント、カレンダー。
人が日常的に使っている情報の流れの中で、そっと手助けをする。
Geminiは、単体で結論を出す存在というより、作業の流れを途切れさせず、 「次に何をすればいいか」を自然に示すことを得意としています。
このタイプのAIは、既存の業務や生活をなめらかにする力を持っています。
Googleが描く未来
あらゆるデバイス、あらゆるサービスに遍在し、
人が情報を探さなくても済む世界。
Claude
― 立ち止まりながら考えるAI
Anthropicは、AIの安全性と信頼性を 出発点に据えて生まれた組織です。
彼らが重視しているのは、 「強力なAIを、どう制御するか」ではなく、 「最初から、どう作るか」 という問いです。
Claudeは、明示的な原則(Constitution)に基づいて訓練されています3。
暗黙的に決定される価値ではなく、憲法によって決定される明示的な価値を言語モデルに与える
そのため、即断即決よりも、 前提や不確実性を言葉にする傾向があります。
- 何が分かっていて
- 何が分かっていないのか
- どんな選択肢があり得るのか
それを整理しながら、一緒に考えていく。
この姿勢は、判断の理由や背景を大切にする仕事と相性が良い。 一方で、スピードだけを求める場面では、少し慎重すぎると感じられることもあります。
Anthropicが描く未来
人が理解し、信頼し、責任を持てるAIと共に働く世界。
では、こうした思想の違いを踏まえたうえで、私たちAcsimはどこに立っているのかを整理してみます。
Acsimの現在地
私たちAcsimは、要件定義を支援するプラットフォームを作っています。
要件定義の仕事には、最初から用意された正解がありません。
話をしながら、
「これは本当に必要なのか」
「将来、困らないだろうか」
そんな問いを何度も行き来します。
だから私たちがAIに求めたのは、 ズバッと答えを出す存在ではありませんでした。
- 出力が安定していること
- 要件定義というタスクと噛み合っていること
- 対話の流れを壊さないこと
この3つです。
いくつかのAIを試した結果、現時点ではClaudeが、いちばんこの仕事に合っていました。
派手ではありません。
しかし、考えが整理されていく感覚がある。
それが、私たちにとっては大切でした。
選び続けるということ
CodeRabbitのブログに、こんな言葉があります。
LLMの選択は、プロダクトの「声明」である
AIは、もはや単なる部品ではありません。 どのAIを選ぶかは、「私たちは何を大切にしているのか」という表明になります。
私たちは、今はClaudeを使っています。
しかし、それは永遠の結論ではありません。
ゴールが変われば、最適なAIも変わる。
だからこそ、私たちは問い続けます。
- このAIは、ユーザーの判断力を支援しているか?それとも奪っているか?
- なぜこの結論になったのかを、後から説明できるか?
- 私たちが引き受けるべき責任と、このAIの振る舞いは一致しているか?
性能は変わります。モデルも変わります。
しかし、プロダクトが大切にする価値は、簡単には変わりません。
だからこそ、私たちは「選び続ける」ことを大事にしたいと思っています。
