あなたは今日、何回マウスをクリックしましたか。 Figmaでボタンの角丸を4pxから8pxに変えたり。 Slackで15個のチャンネルを行き来したり。 SaaSのダッシュボードで3階層のメニューを掘り進んだり。 その「画面をポチポチする時間」が、まもなく消えます。 世界のテクノロジーリーダーたちは、驚くほど口を揃えて同じことを言い始めました。 「これからのインターフェースは、ボタンでもメニューでもない。言葉だ」と。 これは予言ではありません。すでに始まっている現実です。 【告知】Gemini Canvas × Google Sticth 解説 40分のランチウェビナーを開催します!テーマは「Vibe Coding」です。
2023年1月。OpenAIの共同創業者アンドレイ・カーパシーが、Xにたった1行の投稿をしました。
「The hottest new programming language is English.」 (いま最もホットなプログラミング言語は、英語だ) https://x.com/karpathy/status/1617979122625712128?s=20 この一言は、テック業界に衝撃を与えました。 でも彼はここで止まりませんでした。 2025年6月、Y Combinatorの講演で彼は「Software 3.0」という概念を提唱します。Software 1.0は人間がコードを書く時代。Software 2.0はニューラルネットワークがデータから学ぶ時代。そしてSoftware 3.0は、自然言語でプログラムする時代だと。 さらに2026年2月。カーパシーは「バイブコーディング」の次のステージとして「エージェントエンジニアリング」を提唱しました。「新しいデフォルトは、あなたがコードを直接書かないこと。99%の時間、あなたはエージェントを指揮し、監督する立場になる」と。 彼だけではありません。 NVIDIAのジェンセン・ファンは、2024年2月のWorld Government Summitでこう宣言しました。 「新しいプログラミング言語は”人間語”です。世界中の全員が、いまやプログラマーです。」 ファンはさらに踏み込み、「子どもたちにコーディングを学ばせる必要はない。AIがやる」とまで言い切りました。 マイクロソフトのサティア・ナデラも、2024年12月のポッドキャストで既存のSaaSアプリケーションの終焉を予言しています。 「ビジネスアプリケーションは全て、エージェントの時代に崩壊するでしょう。それらは結局、ビジネスロジック付きのCRUDデータベースに過ぎない。ロジックは全てエージェントに移行する」 そしてこう続けました。 「人間の言葉が、新しいUIレイヤーだ」と。 OpenAIのサム・アルトマンは2025年を「エージェントが仕事をする年」と位置づけ、「コードを書くという行為は、もう元には戻らない」と断言しました。 4人のリーダー。4つの異なる企業。しかし全員が指し示す方向は同じです。 ボタンをクリックする時代から、言葉で指示する時代へ。
「リーダーがそう言ってるだけでしょ?」と思うかもしれません。 では、数字を見てみましょう。 2026年3月のPragmatic Engineer調査(回答者約1,000名)で、最も愛されているAI開発ツールの1位は「Claude Code」でした。支持率46%。2位のCursorが19%、3位のGitHub Copilotが9%です。 Claude Codeはターミナルで動きます。GUIはありません。黒い画面に文字を打つだけ。それがゼロから8ヶ月で業界1位になりました。 調査は興味深い事実を明らかにしています。ディレクターやシニアリーダーのClaude Code支持率は一般の2倍でした。つまり、経験豊富なエンジニアほどGUIを捨て、ターミナルに戻っているのです。 Pragmatic Engineerはこう分析しています。「既存のセットアップで動くターミナルネイティブなツールが、IDEの乗り換えを強いるツールよりも、経験豊富な開発者が求めていたものだった」と。 GitHub Octoverse 2025の報告もこの流れを裏付けます。LLMのSDKを使うパブリックリポジトリは110万以上。過去12ヶ月で新規作成されたものは約69万で、前年比178%増。 GitHub上の新規開発者の80%が、参加1週間目からCopilotを使っています。「開発者はBashを避けなくなった。AIがシェルスクリプトの摩擦を吸収したからだ」とGitHubは報告しています。 Stack Overflow Developer Survey 2025でも、開発者の80%がAIツールをワークフローに組み込んでいます。 MCPの躍進も見逃せません。AnthropicがModel Context Protocol(MCP)を2024年11月に公開してからわずか1年で、SDKのダウンロード数は月間9,700万以上に達しました。2025年にはOpenAIが採用を表明し、GoogleのDeepMindも追従。2025年12月にはLinux Foundation傘下のAgentic AI Foundationに寄贈されました。 OpenAIは自社のAssistants APIを廃止し、MCPベースへの移行を進めています。APIの「つなぎ方」が標準化され、エージェント同士が言葉で連携する基盤が急速に固まっているのです。 これは一部のエンジニアだけの話ではありません。 「GUIよりテキスト」の波は、データが示す構造変化です。
ここまで読んで「いやいや、全部テキストで済むわけないでしょ」と思った方。 正直に言います。その直感は正しいです。 spaCyの開発元Explosion AIのマシュー・ホニバルは、言語UIの限界を的確に指摘しています。
「言語ユーザーインターフェースの適用範囲は、多くの人が考えるよりもずっと狭い」 「人が精密になろうとすればするほど、自然言語への熱意は冷める」 UXの権威ヤコブ・ニールセンは「表現の壁(articulation barrier)」という概念を提唱しました。GUIでは「何のコマンドを使うか」が壁でしたが、AIでは「自分が何を望んでいるか言語化する能力」が壁になる。壁が消えたのではなく、反対側の肩に移動しただけだと。 Microsoft Researchの2025年3月の論文も、APIエージェントとGUIエージェントの比較研究で「ハイブリッドアプローチが未来だ」と結論づけています。 Googleが2026年に公開したA2UI(Agent-to-User Interface)は、AIエージェントがリッチなUIを動的に生成するプロトコルです。テキストだけの世界に逆戻りするのではなく、エージェントが必要に応じてUIを生み出す方向です。 GitHubも2026年3月に「テキストとしてのAIの時代は終わった。実行こそが新しいインターフェースだ」というブログを公開し、テキストの先にある「プログラム可能な実行」の世界を提示しています。 つまり、未来は「GUIかCLIか」の二項対立ではありません。 言葉が起点となり、必要なときにUIが生成される。 これが、反論を踏まえた上での現実的な未来像です。
ここからが、この記事で最も伝えたいことです。
「GUIからCLIへ」「ボタンから言葉へ」。
これを技術トレンドとして消費しないでください。
Scale AIのブログに「Text Is the Universal Interface(テキストは普遍的なインターフェース)」という有名なエッセイがあります。2022年に書かれたこの記事は、LLMの登場によってUNIXの思想——テキストで全てをつなぐ——が復活すると予見しました。
エンジニアのカラン・シャーマは2026年1月にこう書いています。「もしあなたのプラットフォームをAI対応にしたいなら、優れたCLIを作りなさい。--jsonをサポートし、良いマニュアルページを含めなさい」と。
ここに本質があります。
AIエージェントが使いやすいCLIとは、結局「言葉で明確に指示できる入り口」のことです。人間が曖昧な言葉で指示すれば、AIも曖昧な結果を返す。精密な言葉で指示すれば、精密な結果が返ってくる。
カーパシーが「プロンプトエンジニアリング」と呼んだものは、2025年中盤には「コンテキストエンジニアリング」へと進化しました。「適切な情報を、適切な形で、コンテキストウィンドウに詰める技術」です。
これはもはやプログラミングの話ではありません。
「自分が何を望んでいるかを、正確に言語化する力」の話です。
デザイナーなら、「いい感じにして」ではなく、「このボタンは購入率を3%上げるために、視線動線の終点に配置し、周囲に24pxの余白を確保する」と言える力。
ディレクターなら、「ユーザビリティを改善して」ではなく、「初回訪問者が会員登録を完了するまでのステップを5から3に減らし、離脱率を20%下げる」と言える力。
ライターなら、「面白い記事を書いて」ではなく、「35歳のWeb制作者が通勤電車で読み始めて、降車駅を1つ乗り過ごすほど没頭する記事を書く」と言える力。
言葉の解像度が、そのままアウトプットの解像度になる。
これがGUI時代との決定的な違いです。GUIは「選択肢の中から選ぶ力」を求めました。AI時代は「選択肢を自分で言語化する力」を求めます。
言葉こそ全て。
これは詩的な表現ではなく、テクノロジーの構造が要請する、新しい時代のリテラシーです。
1つ目。ターミナルを開いてください。 Claude Codeでも、GitHub Copilot CLIでも、Gemini CLIでもいい。GUIなしで1つのタスクを完了させてみる。最初は不便に感じます。でもその不便さの中に、「自分は何を求めているのか」を言語化する訓練が詰まっています。 2つ目。「プロンプト日記」を始めてください。 AIに指示を出すたびに、うまくいった指示とうまくいかなかった指示を記録する。1週間続けると、自分の言葉の精度がどこで落ちるかが見えてきます。これは単なるAI活用テクニックではなく、思考の精度を上げるトレーニングです。 3つ目。「ボタンを押す前に、言葉にする」を習慣にしてください。 Figmaでフォントサイズを変える前に、「なぜこのサイズにするのか」を1文で書く。Slackでメッセージを送る前に、「この文で相手は何を理解し、何をするか」を考える。GUIの裏側にある意図を言語化する習慣が、そのままAI時代の武器になります。 NVIDIAのファンは「全員がプログラマーだ」と言いました。 私はこう言い換えたい。 全員が「言葉の使い手」になる時代が来た。 プログラミング言語を知らなくていい。デザインツールを極めなくてもいい。でも、言葉だけは研がなければいけない。 あなたの言葉の精度が、そのままあなたの仕事の価値になる時代です。 【告知】Gemini Canvas × Google Sticth 解説 40分のランチウェビナーを開催します!テーマは「Vibe Coding」です。