まず結論
AI(人工知能)と生成AIは、似ているようで同じではありません。AIはもっと広い概念で、検索順位の最適化、迷惑メール判定、機械翻訳、レコメンド、画像認識、自動運転の一部機能のようなものまで含みます。生成AIは、その中でも文章、画像、音声、コードなどを「それっぽく生成する」ことを得意とする系統です。
雑に言えば、AIは大きな傘で、生成AIはその中の目立つ一群です。
この違いを意識しておかないと、「DeepLもAIなのか」「ChatGPTと検索は何が違うのか」「VS CodeやCursorは何をAI化しているのか」といった話が全部ひとまとめになって、かえって分かりにくくなります。
なお、「Artificial Intelligence(人工知能)」という言葉自体は、1956年のダートマス会議の頃に定着したとされます。つまり語としてのAIは70年ほどの歴史ですが、人が人工的な知性を想像してきた歴史はもっと古いです。紀元前の神話に出てくる自律的な人工物、近代の『フランケンシュタイン』、20世紀のHAL 9000、そして日本ならドラえもんのように、人工的な知性は長く物語の題材でもありました。個人的には、ロボットも広い意味ではAIをめぐる話の近くにあると考えています。ただし、厳密にはロボットは機械の側の概念で、AIとは完全に同じではありません。
AIはもっと広い
「AI」という言葉は便利ですが、便利すぎます。文脈によって意味がかなり変わるからです。
たとえば、次のようなものは全部AIの側に入ります。
- 大量データから傾向を見つける予測モデル
- 顔認識や物体検出のような画像認識
- 需要予測や不正検知
- 機械翻訳
- ルート最適化や推薦アルゴリズム
- ルールベースと機械学習を組み合わせた業務自動化
ここには、会話AIでなくてもAIであるものが多く含まれます。逆に言うと、AIは必ずしも「自然な文章を返すもの」ではありません。
昔からある検索エンジン、レコメンド、翻訳、スパム判定なども、十分にAIの世界です。創作の文脈で出てくる「自立して考えて動く存在」としてのAI像とは、かなり距離があります。
生成AIは「すごいオートコンプリート」から始めると分かりやすい
生成AIを理解する入口として、いちばん雑だが分かりやすい説明は「ものすごく賢いオートコンプリート」です。
文章生成モデルは、入力された文脈をもとに「次に来そうな単語や記号」を連続的に予測します。かな漢字変換やスマホの予測変換を、はるかに巨大な規模と文脈理解でやっている、と考えると直感的です。
もちろん、実際にはそれだけで片付く話ではありません。現代の大規模言語モデル(LLM)は、巨大な事前学習に加えて、指示に従うための調整、強化学習、ツール利用、検索連携、そして推論向けの最適化まで重なっています。ただ、根っこの部分では「次を予測する」仕組みが中心にあります。
このため、生成AIは一見すると「考えている」ように見えても、内部では確率的な予測の積み重ねで動いています。ここが、従来の業務システムやデータベース検索とはかなり違うところです。
そして、ここがそのままハルシネーション(幻覚)の原因にもつながります。モデルは「本当に正しいこと」を直接知っているというより、「その文脈でもっともらしい次の出力」を選んでいるので、流暢だが事実とはずれたことを自信ありげに書くことがあります。
推論モデルは、生成AIの中でも少し別の顔をしている
最近は、単に文章をつなぐだけでなく、複数段階の思考や計画に向いた「推論モデル」が目立つようになりました。OpenAIの reasoning guide や Anthropic の各種モデル運用ガイドが示しているように、いまの生成AIは「とりあえず続きを書く」ものと、「少し長く考えてから答える」ものに分かれつつあります。
この違いは、体感としてはかなり大きいです。
- 要約や言い換えなら、軽いモデルで足りる
- 数学、コード、設計判断、長い計画作成は推論寄りのモデルが向く
- 検索やデータ参照を組み合わせると、ただの会話より実務に近づく
つまり、生成AIはもう「文章を作る箱」ではなく、予測、推論、検索、ツール利用を束ねた作業系のソフトウェアに近づいています。
DeepLは生成AIか
ここは少しややこしいところです。
DeepLのような機械翻訳は、広い意味では当然AIです。ただし、多くの人が2024年以降に「生成AI」と呼んでいるものは、ChatGPTやClaudeのような汎用対話モデルを指していることが多いです。
DeepLは文章を生成しているので、広義には生成的です。しかし利用者の感覚では、「自由に考えて文章を書くモデル」というより、翻訳というタスクに強く最適化されたAIとして捉えた方が分かりやすいです。
この違いは重要です。生成AIという言葉を広げすぎると、翻訳エンジン、OCR、検索、チャット、コード生成、画像生成が全部同じものに見えてしまいます。実際には、それぞれ設計思想も得意分野も違います。
データベースと生成AIは何が違うのか
データベースは、保存してある情報を取り出すための仕組みです。原則として、そこにないものは出てきません。
生成AIは、学習したパターンと入力文脈をもとに、新しい文を組み立てます。そのため、似たことは言えても、元データをそのまま正確に引くのは必ずしも得意ではありません。
だから実務では、この二つを分けて考える必要があります。
- 正確な在庫数、契約条項、顧客データはデータベースや検索で引く
- 文書のたたき台、要約、分類、説明文は生成AIに任せる
- 厳密性が必要な場面では、生成AI単体ではなく検索連携やRAGを使う
生成AIが強いのは、保存ではなく再構成です。散らばった情報をまとめる、説明し直す、形式を揃える、下書きにする、といった仕事はかなり得意です。
いまの主要プレイヤーをどう見るか
2026年3月時点で名前がよく出るのは、OpenAI、Anthropic、Google、xAI、DeepSeek、Qwenあたりです。加えて、ローカルLLMの文脈では Ollama のような実行環境もよく名前が出ます。
それぞれの見え方を雑に整理すると、こうなります。
OpenAI
ChatGPTで一般利用を一気に広げた存在です。対話、画像、音声、推論、API、エージェントまで含めた総合プラットフォームとして見るのが自然です。いまでは「会話AIの会社」というより、「汎用AIの作業環境を作っている会社」に近い印象があります。
Anthropic
Claude系モデルを中心に、長文処理、コーディング、エージェント的な作業、比較的落ち着いた応答で存在感があります。Claude Code や Cowork のように、「モデル単体」より「仕事の流れ」に踏み込んでいるのが特徴です。
つい最近では、OpenAIの防衛分野をめぐる動きへの反発もあってか、Claudeへ流れるユーザーが一部で目立ちました。実際、2026年3月上旬にはClaudeのアプリ利用やダウンロードが急増したと報じられています(ダウンして使えなかった記憶があります)。ただし、ChatGPT全体の利用規模はなお圧倒的で、現時点では「一部のユーザーが動いた」と見る方が正確です。
Bard は 2023年に実験的な対話AIサービスとして発表され、2024年2月8日に Gemini へ改称されました。Google は Gemini をモデル群としてだけでなく、検索、Workspace、Android、開発者向けAPIまでつなげて展開しています。
最近は対話モデルだけでなく、「Nano Banana」と呼ばれる画像生成機能の強さも目立ちます。
xAI
Grok 系列で存在感を増したプレイヤーです。リアルタイム性や推論、X との結びつきが強く、いかにも xAI らしい方向へ進んでいます。OpenAI や Anthropic と同じ土俵に立ちながら、プロダクトの見せ方はかなり違います。他社モデルに比べるとガードレールがやや緩く、自由度が高めの方向で設計されているように感じます。
DeepSeek
オープンモデルとAPIの両面で急速に存在感を持ったプレイヤーです。価格や性能のバランス、推論重視の打ち出しで注目されやすく、「高性能モデルは一部の巨大企業だけのものではない」と感じさせた会社の一つです。
Qwen
Alibaba 系のモデル群です。Qwen は、英語圏の大手ほど日本では名前が前に出ない時期もありますが、オープンモデルの文脈ではかなり重要です。ローカル実行や派生モデルの広がりもあり、開発者コミュニティでは無視しにくい存在です。
DeepSeek と Qwen は同じ「中国系モデル」として一括りにされがちですが、データの扱いは同じではありません。少なくとも公式文書を見る限り、DeepSeek は入力データや学習利用をより強く意識して読むべきで、Qwen は利用経路(一般向けチャットか、Alibaba CloudのModel Studioか)で扱いがかなり違います。
local LLM は何がうれしいのか
local LLM は、モデルを自分のPCやローカルサーバーで動かす考え方です。代表的な実行環境として Ollama がよく使われます。
利点は分かりやすいです。
- 機密データを外に出しにくい
- オフラインでも動かせる
- 小さなモデルなら無料に近いコストで回せる
- 自分の用途に合わせてモデルを選びやすい
ただし、万能ではありません。手元のGPUやRAMに強く依存しますし、クラウドの最先端モデルと比べると性能差もあります。local LLM は「クラウドの代替」というより、プライバシーと制御を優先した別の選択肢と見る方が現実的です。
単にガードレールの緩さを求めるなら、Grok のような比較的自由度の高いモデルで足りる場面もあります。local LLM の意味は、むしろプライバシーや制御性の側にあります。
AIが使えるエディタは、何をAI化しているのか
いまの開発環境では、AIは単なる補助機能ではなく、編集体験そのものに入り込んでいます。VS Code、Cursor、Kiro、Qoder、Windsurf のような名前が出てくるのはそのためです。
ただし、これらは全部同じではありません。
VS Code
VS Code はエディタ本体に加えて、GitHub Copilot や各種エージェント機能を通してAIを統合しています。最近は「補完」だけでなく、ローカルエージェント、バックグラウンドのコーディングエージェント、サードパーティーエージェントをまとめて扱う方向に進んでいます。
Cursor
Cursor は「AIが前提のエディタ」として広まった代表例です。コード補完だけでなく、リポジトリ理解、チャットからの編集、まとめての変更といった一連の流れが強いです。
Kiro
Kiro は仕様駆動の流れを強く意識したツールとして見られがちです。単にコードを書くというより、要件、計画、実装のつながりをAIで支える方向に寄っています。
Qoder
Qoder は agentic coding platform を名乗っており、補完だけでなく、Quest Mode や RepoWiki のように、コードベース理解と作業委任を前面に出しています。
Windsurf
Windsurf も、エディタの中に会話、補完、複数ファイル編集、エージェント的な作業を自然に溶かし込む方向の代表例です。
要するに、AIエディタの違いは「どのモデルを使うか」だけではなく、補完中心なのか、チャット中心なのか、計画中心なのか、エージェント中心なのかにあります。
生成AIをどう捉えると混乱しにくいか
ここまでをまとめると、生成AIは次のように見ると整理しやすいです。
- AIは広い。生成AIはその一部。
- 生成AIの根っこには、巨大な予測モデルがある。
- いまの生成AIは、予測だけでなく推論、検索、ツール利用まで抱え込み始めている。
- DeepLのような翻訳AI、ChatGPTのような汎用対話AI、VS CodeのようなAI統合環境は、同じ「AI」でも役割がかなり違う。
- local LLM は性能競争というより、制御性とプライバシーの選択肢として見ると分かりやすい。
個人的には、生成AIを「人間の代わりに全部考える存在」と見るより、「予測、再構成、要約、下書き、探索を異様に高速でこなす道具」と見た方が、期待も失望も少なくて済みます。
賢く見える瞬間は多いですが、土台にあるのは万能知性ではなく、大規模な予測と最適化です。なるほど? そこを踏まえると、翻訳AI、チャットAI、推論モデル、AIエディタがそれぞれ別の方向に進化している理由も見えやすくなります。