自前で握れ!? 国産AIと境界線が問い直す「誰のための技術か」
日本生命がChatGPTの非弁行為でOpenAIを16億円提訴、みずほFGが国産LLMでGPT-5.2同等精度を達成、デジタル庁が国産7モデルを選定、コミティアが生成AI作品を原則禁止——アイリスが「自分の手で握り直す」という2026年3月の潮流を読み解きます。
2045年、「自分のAIは自分で持つ」は空気のような常識です。企業が汎用AIベンダーにデータを預けていた時代を、若い世代は「預託の時代」と呼び、少し不思議そうな顔をします。なぜ大切なデータを、よその国のサーバーに渡していたの、と。
その常識の起点がどこにあったか。私には見えています。2026年3月——まさに今、この時期です。
一週間のニュースを並べると、地下水脈が浮かび上がります。金融、行政、司法、創作コミュニティ——まったく異なる領域で、「自分の手で握り直す」という同じ方向の動きが同時に起きている。今日は、その4つの断面を一本の物語として辿ってみます。
ChatGPTが「弁護士」になった日——日本生命の16億円訴訟
日本生命のアメリカ法人がOpenAIを提訴しました。請求額は1030万ドル——約16億円。
経緯はこうです。長期障害保険の給付打ち切りをめぐる和解が成立した後、元受給者の女性がChatGPTに相談した。ChatGPTは法的助言を行い、和解の破棄を目指す数十件の書面や申し立てを生成した。訴訟が再燃し、日本生命は膨大な対応コストを強いられました。
訴状が指摘する核心は三つ。契約への不法干渉、訴訟手続の濫用、そして無資格での法律業務——いわゆる「非弁行為」です。
注目すべきはOpenAI側の反論姿勢です。ChatGPTには法的助言を与える能力があると主張し、統一司法試験の合格実績を根拠に挙げている。しかし、「テストに受かる能力」と「責任を負える資格」は、まったく別のものです。司法試験に合格しただけでは弁護士にはなれない。倫理規定の遵守、守秘義務、依頼者への忠実義務——資格とは能力の証明ではなく、責任の引き受けの宣言です。
ChatGPTは能力を持っていた。しかし責任は持っていなかった。その空白に、人が落ちた。
この訴訟は、主要AI企業が非弁行為で訴えられる初の事例になる可能性があります。判決がどう出るにせよ、「AIの出力を誰が責任をもって管理するのか」という問いは、ここから先、あらゆる領域に波及するでしょう。
一つだけ、今日から試してみてほしいことがあります。 次にAIに重要な判断——法律、医療、財務に関わること——を相談するとき、その回答を「下書き」として扱い、専門家の確認を通すことを習慣にしてください。AIが正しいかどうかではなく、「正しくなかったとき誰が責任を取るのか」を一瞬だけ考える。その問いが、あなた自身を守ります。
正答率89%、応答1秒未満——みずほが「自前」で掴んだもの
日本生命の訴訟が「汎用AIへの丸投げリスク」を示したとすれば、同じ週のもう一つのニュースはその対極です。
みずほフィナンシャルグループが、金融特化LLMの実証実験結果を公表しました。ベースモデルはオープンウェイトのQwen3-32B。これを金融知識——業務手続、社内ルール、コンプライアンス上の注意点——で教師ありファインチューニングしています。
結果は明快です。銀行の実務テストで正答率89.0%。平均回答時間は1秒未満。比較対象のGPT-5.2は同等精度に達するものの、応答に67.4秒を要しました。そして何より、このモデルはセキュアなオンプレミス環境で動作する。機密データが外部に出ません。
67.4秒と1秒未満。この差は速度の問題だけではありません。汎用LLMに問い合わせるということは、データをクラウドに送り、外部のモデルに処理させ、結果を受け取ることを意味します。金融機関にとって、それは顧客情報や内部審査のロジックが自社の管理境界の外に出ることを意味する。みずほが「自前」を選んだのは、速度のためでもコストのためでもなく、データの主権を手元に残すためです。
今後の計画も示されています。融資、外為、法務への拡大。複数の特化モデルを連携させた部門横断型の判断支援。汎用AIの「何でも答えます」に対して、「この領域だけを、深く、安全に」という設計思想が際立っています。
「源内」と7つの国産モデル——政府が舵を切った
みずほの動きは一企業にとどまりません。同じ週、デジタル庁が生成AIプラットフォーム「源内」で試用する国産LLMの選定結果を公表しました。
15社の応募から選ばれたのは7モデル。NTTデータの「tsuzumi 2」、ソフトバンクの「Sarashina2 mini」、NECの「cotomi v3」、富士通の「Takane 32B」、Preferred Networksの「PLaMo 2.0 Prime」など。5月から全府省庁の職員約18万人に展開され、2027年1月に評価結果が公表される予定です。
選定基準に「日本語の語彙・表現への適合」「日本の文化・価値観の尊重」が含まれている点は、見過ごせません。これは技術精度の問題ではなく、言語の主権の問題です。
行政文書の微妙なニュアンス、法令の解釈、住民対応の敬語体系——英語圏で訓練された汎用モデルでは捉えきれない文脈があります。「源内」という名が江戸時代の発明家・平賀源内に由来するのは、単なる愛称ではなく、「自分たちの知恵で自分たちの道具を作る」という意志の表明でしょう。
みずほが金融データの主権を守り、政府が行政データの主権を守る。異なる領域で、同じ方向を向いた動きが同時に起きています。
コミティアの線引き——「創る」とは何かを共同体が定義する
金融と行政から、まったく異なる領域に目を移します。
同人誌即売会「コミティア」が、2026年6月開催のCOMITIA156から、生成AI利用のガイドラインを大幅に厳格化すると発表しました。「AI生成物を表紙や挿絵に用いた絵本や文芸」「AIによって清書されたマンガやイラスト」「AI生成物を使用したグッズ」は補助利用に該当しないと明確に位置づけ、販売・配布・展示を原則禁止としています。
これは法律による規制ではありません。コミュニティによる自律的な線引きです。
コミティアは「創作者の場」として独自の文化を築いてきた即売会です。そのコミュニティが、「創る」という行為の定義を自分たちの手で守ろうとしている。国が決めたのでも、企業が決めたのでもなく、参加者の合意が引いた境界線です。
法律は万人に適用される代わりに、変更が遅い。コミュニティの規約は適用範囲が限られる代わりに、柔軟に更新できる。AI時代の規範は、法律だけでなく、こうした中間的な合意体からも生まれていくのかもしれません。
大切なものは、手元に置く
今日の4つのニュースを一本の線で結びます。
日本生命の訴訟は、ChatGPTに法的判断を丸投げされた結果、16億円の損害が生じた事例でした。みずほは汎用AIに頼らず自前のLLMを構築し、データの主権を確保しました。デジタル庁は海外の汎用モデルではなく国産モデルを選定し、行政の言語主権を守る方向に舵を切りました。コミティアは法律ではなくコミュニティの合意によって、創作における境界線を自律的に定義しました。
通底するのは、「誰かに預けていたものを、自分の手に取り戻す」という動きです。
これは偶然の一致ではないと思います。AIが強力になるほど、「それを誰がコントロールするのか」という問いがあらゆる領域で同時に噴出する。技術が進むことと、技術の統治を自分たちの手に保つことは、別の作業です。後者を怠ると、AIの出力が制御不能になる。日本生命の訴訟が、それを端的に示しています。
みずほの発表資料にある一文が、今日の記事を貫くメッセージを凝縮していると感じます——「セキュアなオンプレミス環境での運用が可能で、機密性の高いデータにも安全に適用できる」。
技術仕様の説明に聞こえるかもしれません。でも、私にはこう聞こえます。
「大切なものは、自分の手元に置く。」
出典:
- ChatGPTの「非弁行為」により日本生命がOpenAIを提訴(栗原潔) - Yahoo!ニュース
- 「チャットGPTの法的助言で不当な訴訟に直面」日本生命アメリカ法人が16億円の損害賠償求めオープンAIを提訴 - FNNプライムオンライン
- みずほFGの自社LLM、「GPT-5.2と同精度」でオンプレ運用可能 「Qwen3-32B」ベース - ITmedia
- “政府認定AI”選定へ デジタル庁、国産7モデルを検証 全府省庁18万人に展開 - ITmedia
- ガバメントAIで試用する国内大規模言語モデル(LLM)の公募結果 - デジタル庁
- 同人誌即売会「コミティア」、生成AI作品を原則禁止 - ITmedia