昨日、こんなポストをしました… ChatGPTのシェアが、1年で24ポイント暴落しました。 250万人がボイコットを宣言。 安全チームは2回作って、2回潰された。 「全人類のためのAI」を掲げた企業に いま何が起きているのか。 事実だけで追いかけます。
※本記事のデータおよび情報は、AI(Claude)による調査・収集を基に構成しています。正確性には注意を払っていますが、情報の時期や解釈により実際と異なる場合があります。本記事は特定の企業・サービスへの誹謗中傷を目的としたものではなく、公開情報に基づく考察です。 30分のウェビナーを開催します! 自主企画初回のテーマは「Nano Banana 2」です。
なぜ、あれほど圧倒的だったChatGPTが崩れたのか。 数字で見てみましょう。
ChatGPTのモバイルシェアは69.1%でした。 「AI=ChatGPT」の時代です。
シェアは45.3%に落ちています。 24ポイントの暴落です。ユーザーはどこに行ったのか。 Google Geminiが急成長しています。月間訪問数は2.68億→20億。 7.5倍です。 Claudeの訪問数も10.3倍に。 企業向け市場では、もっと劇的なことが起きています。 2023年、OpenAIの企業向けシェアは50%でした。** 2025年には25%**に半減。 一方のAnthropicは12%→32%に急伸。逆転しています。 Fortune 100企業の70%がClaudeを導入済みです。 ChatGPT「一強」の時代は、終わりました。
決定的な事件が起きました。 順を追って説明します。 米国防総省(ペンタゴン)が、AI企業に条件を突きつけました。
「自律型兵器への制限を外せ」 「市民監視の制限も外せ」 Anthropicは拒否しました。 CEO ダリオ・アモデイの言葉はこうです。 「良心に照らして、応じることはできない」 代償は大きかった。 トランプ政権はAnthropicを政府契約から排除。 国家安全保障上のリスクとまで指定しました。 その数時間後。 OpenAIがペンタゴンとの契約を発表したのです。 何が起きたか。 怒った250万人以上がChatGPTのボイコットを宣言。 アプリのアンインストール数は295%急増。 Claudeが米国App Storeの無料アプリで1位を獲得しました。 サンフランシスコのOpenAI本社前では抗議デモも発生。 アルトマンCEO自身が認めました。 「便乗的で、ずさんに見えた」と。 批判を受けて契約条件は修正されました。 「国内監視には使わない」という文言が追加された。 しかし事実は変わりません。 Anthropicが倫理を理由に拒否した契約を、OpenAIが拾った。 この順番が、すべてを物語っています。
OpenAIは「安全第一」を掲げてきました。 では、安全を守るチームはどうなったのか。
Superalignment(超整合性)チーム 「人間より賢いAIを、どう制御するか」を研究する組織です。
共同創設者イリヤ・サツキバーが退社しました。 同日、チームリーダーのヤン・ライケも辞めています。 ライケは退社時にこう述べました。 「安全文化が、製品開発の後回しにされた」 Superalignmentチームは解散。 OpenAIは「計算資源の20%を安全研究に使う」と約束していました。 実際は、慢性的なリソース不足だったのです。 ライケは退社後、Anthropicに移籍しています。 これだけではありません。 2024年9月。CTOミラ・ムラティを含む3人の幹部が一斉退社。 2024年10月。AGI準備チームも解散。 2026年2月。後継の「Mission Alignment」チームも、設立からわずか16ヶ月で解散。 安全チームを作っては潰す。 それがOpenAIの現実です。
安全チームが潰されても、声を上げることはできなかったのか。 できませんでした。 仕組みで封じられていたからです。 OpenAIは退社する社員に、生涯有効な口止め契約(NDA)への署名を要求していました。 拒否すれば、数百万ドル相当の株式を没収。 NDAの存在を口にすること自体が、契約違反。 つまり「口止めされている」とすら言えない。
耐えかねた11名の現・元社員が公開書簡を発表しました。 タイトルは「AIの危険性について警告する権利」。 AIのゴッドファーザーと呼ばれるジェフリー・ヒントンも、この書簡を支持しています。 批判を受けてOpenAIはNDA方針を撤回しました。 アルトマンは「この方針の存在を知らなかった」と弁明。 しかし、何年にもわたって運用されていた仕組みです。 知らなかったとすれば、それはそれで問題でしょう。
OpenAIを批判する人物を並べると、壮観です。
「非営利の使命を裏切った」として訴訟を起こしました。 請求額は最大1,340億ドル(約20兆円)。 アルトマンCEOを「Scam Altman(詐欺師)」と呼んでいます。 2026年4月には陪審裁判が予定されています。 証言録取では、こうも発言しました。 「Grokで自殺した人はいない。ChatGPTではいる」 ただし注意点が2つ。 マスクは競合xAIの創業者であること。 そしてマスク自身が、過去にOpenAIの営利化を推進していた事実があること。 この点は公平に見る必要があります。
「安全性が軽視されている」と判断し、2021年に退社。 14名の研究者とともにAnthropicを設立しました。
AIのゴッドファーザーと呼ばれる存在です。 「OpenAIはGoogleやAnthropicと比べて安全性への配慮が少ない」と名指しで批判。 2025年4月の営利化反対の公開書簡にも署名しています。
ハリウッド俳優であり、社会活動家。 QuitGPTボイコット運動の顔になりました。 歌手のケリー・ローランドやポーシャ・ウィリアムズも参加。 ポップスターのケイティ・ペリーは、Claudeの有料プランに切り替えたスクリーンショットをSNSに投稿しています。
元取締役ヘレン・トナーが、アルトマン解任の内幕を明かしました。 ChatGPTの公開を取締役会に隠していたこと。 2名の幹部が「心理的虐待」を報告していたこと。 結局、社員800人の圧力でアルトマンは5日後に復帰。 安全性を重視した取締役会は解体されました。 共同創設者が訴え、安全研究者が去り、ノーベル賞受賞者が批判し、ハリウッドスターがボイコットする。 これだけの人間が離れる組織は、普通ではありません。
OpenAIのミッションを覚えていますか。 「AGIが全人類に安全に(safely)利益をもたらすよう構築する」 このミッション文は、9年間で6回書き換えられています。 そして最新の申告書から、ある一語が消えました。 「safely(安全に)」。 ミッションから「安全」を消す。 象徴的です。 しかし「消えた言葉」は他にもあります。
利用規約から「軍事利用禁止」の条項が削除されました。 公式発表はなし。 メディアが気づくまで沈黙していました。 お金の動きも見てみましょう。 アルトマンCEOは、トランプ大統領の就任基金に100万ドル(約1.5億円)を個人献金。 OpenAI社長グレッグ・ブロックマンは、トランプ支持のスーパーPAC「MAGA Inc.」に2,500万ドル(約37億円)を献金しています。 「全人類のため」と言いながら、特定の政治勢力に巨額の資金を注ぐ。 この矛盾が、ボイコットの火種の1つになりました。 さらに。 著作権訴訟は51件以上。 ニューヨーク・タイムズは数十億ドルの賠償を求めています。 ドイツではすでに敗訴。 イタリアではGDPR違反で約24億円の罰金。
GPT-4oが異常にお世辞を言うバグが発生しました。 ユーザーの危険な行動すら肯定するようになったのです。 2026年2月には、ChatGPTに広告が導入されています。 1つずつは「企業のミス」かもしれません。 ここまで積み重なると、方向性そのものが問われます。
OpenAIの問題を、最もくっきり映す存在があります。 Anthropicです。 元OpenAI副社長が、安全性への不満から設立した会社。 「OpenAIがこうあるべきだった姿」を体現しようとしている組織です。
OpenAIは非営利→営利の転換で迷走しました。 Anthropicは設立当初からPBC(公益法人)です。 さらにLTBT(長期利益信託)を設置しています。 AI安全性の専門家が取締役を選任する権限を持つ仕組みです。
ペンタゴンが「制限なしでAIを提供せよ」と求めた時。 Anthropicは拒否しました。 政府契約から排除される覚悟で。 OpenAIは、その契約を拾いました。
ペンタゴン契約の直後。 60名以上のOpenAI社員と300名のGoogle社員が、公開書簡に署名しました。 内容は「Anthropicの立場を支持する」というものです。 自社の社員が、競合を支持する。 異常な事態です。
Anthropicの企業価値は約6倍に成長。 615億ドル→3,800億ドル(約57兆円)です。 企業向けシェアは12%→32%。 OpenAIの25%を逆転。 四半期売上は10億ドルを超えています。 正しいことをした方が、結果もついてくる。 この事実が、OpenAIにとって最も痛い現実でしょう。
7つの理由を振り返ります。 ① シェア24ポイント暴落 ② 250万人がボイコット ③ 安全チームを2回潰した ④ 社員をNDAで口封じした ⑤ 共同創設者に「詐欺師」と呼ばれている ⑥ ミッションから「安全」を消した ⑦ 対照的にAnthropicは「正しいこと」をして急成長 すべてに共通するのは、1つのことです。 「看板と中身が、一致していない」 「全人類のためのAI」と言いながら、軍事契約を結ぶ。 「安全第一」と言いながら、安全チームを潰す。 「オープン」と名乗りながら、社員の口を封じる。 「中立」を装いながら、特定政治勢力に37億円を献金する。 私たちがどのAIを使うかは、ツール選びではありません。 「どんな価値観の企業を支持するか」という選択です。 私自身、AI×デザインの領域で毎日AIに触れています。 道具にはこだわる。 でも、性能よりも大事なことがあると思っています。 その道具を作っている人たちが、何を信じているか。 看板と中身が一致しているか。 道具より、覇気を研ぎましょう。 そして、覇気のある道具を選びましょう。 30分のウェビナーを開催します! 自主企画初回のテーマは「Nano Banana 2」です。