TL;DR

ここ数週間、金融業界の信頼インフラに関わる動きが同時に進んでいます。Anthropic がAI エージェント を金融機関の中核業務に展開し、米欧日の規制当局が AI 判断の説明責任を議論し、DeFi クロスチェーン・ブリッジで大規模な流出が起きました。別々の話題に見えますが、根は同じです — 境界をまたぐ意思決定で「暗号学的に正しい」と「意味的に正しい」が分離している。Lemma はその分離を埋めるレイヤー、pre-execution attestation(コミット前検証)を作っており、誰でも動作確認できるリファレンス実装を直近 2 週間で 2 本公開しました。

暗号学的に正しい ≠ 意味的に正しい。

▸ AI エージェント が金融機関の中核に到達した

ここ数日、Anthropic が金融サービス向けの AI エージェント展開を一気に加速させました。ピッチブック作成、KYC スクリーニング、クレジットメモ起草、決算レビュー、月次決算 — 金融機関の中核業務 10 種を対象としたエージェント・テンプレートが、Claude Cowork、Claude Code、Claude Managed Agents 上で動くリファレンス・アーキテクチャとして公開されています。Microsoft 365(Excel・PowerPoint・Word)にも組み込まれ、Moody's をはじめとする金融データプロバイダとの連携も同時に発表されました。大規模な投資・パートナーシップ枠組みも並行して組み立てられています。

エージェントが pitchbook を組み、KYC ファイルを判定し、月次決算を回す運用が、本格的に始まろうとしています。

CISO、IT 責任者、リスク管理責任者にとって、ここから先の論点は明確です。エージェントが書類を起こし、判定を下し、決算を閉じるとき、半年後・1 年後の検査や訴訟で 「あの判定は、どのデータを参照し、どのルールを適用し、どのモデル世代が下したのか」を再現可能な形で答えられるか — AI 採用と必ず並行して立ち上がる問いです。

▸ 規制・DeFi・AI エージェント ─ 同時に何が起きているか

少し視野を広げます。ここ数週間、金融業界の信頼インフラに関わる動きが同時に進んでいます。Anthropic の動きはその一部です。隣接して何が動いているかを見ると、論点の輪郭がはっきりします。

規制・政策当局の動き。Anthropic 製の攻撃 AI モデル「Mythos」を契機に、米財務省・FRB が大手銀行 CEO を緊急招集し、Anthropic 自身も米欧主要金融機関に限定提供する Project Glasswing を立ち上げました。日本でも 4 月 24 日、片山金融担当相が日銀・3 メガバンク・全銀協・JPX を集めた緊急会合を開催し、「日本版 Project Glasswing」設置の議論が始まっています。米国(財務省・FRB)、欧州(Glasswing の限定提供圏)、日本(金融担当相 × 日銀 × 銀行業界)— AI 判断の説明責任をどう制度化するか が、三つの地域で同時に俎上に乗っています。

DeFi 領域の動き。複数のクロスチェーン・ブリッジエクスプロイト事案が報告されました。なかでも Kelp DAO / rsETH の事案では、約 $292M が 1-of-1 DVN 構成下で 46 分以内に流出 しています。これらの攻撃で使われたトランザクションは、いずれも 暗号学的にはすべて有効でした。鍵漏洩でもバグでもありません。受信側が「そのトランザクションが本当にそこから来たのか」を検証する手段を持たないまま処理を確定させたため、検知の時点では既に資産が動いていました。

AI エージェント の動き。Anthropic の一連の展開によって、AI エージェント が金融機関の中核ワークフローに本格的に入ろうとしています。

▸ 共通する形:暗号学的に正しい ≠ 意味的に正しい

これらは表面的には別の話題に見えます。並べると、同じ構造が浮かびます。境界をまたぐ意思決定で「暗号学的に正しい」と「意味的に正しい」が分離する — この構造が、どれにも現れています。AI エージェント が金融機関の判断を下す境界、攻撃 AI と防御 AI が出会う境界、ブリッジを介した資産の移転が起きる境界。どの境界でも、署名は通る、しかし中身は別物、という事態が起きます。形式の正しさと意味の正当性は、どの境界でも別の話になります。

事後に追跡する、事後に凍結する、事後に説明する — これらの仕事は重要で、業界は長年それに投資してきました。それでも、コミットの瞬間そのものに「これは本当に正当な状態遷移か」を受信側が独立に検証する層は、ずっと薄いまま です。今、AI エージェントが金融機関の中核に到達しようとしているタイミングで、この層の不在が同時に意味を持ち始めています。

▸ Lemma Oracle が作っているもの

この層の不在を、私たちは構造的な問題として捉えています。Lemma Oracle はその仮説と実装です。短く説明します。

Lemma は、AI が業務上の判断を下すとき、また異なるシステム間で状態が遷移するとき、その判断・遷移の 来歴(誰が/どのデータを/どのルールで/どのモデルで)を改ざん不可能な形で残し、受信側がコミット前に独立検証できる インフラです。技術的には零知識証明(ZK 証明)、暗号学的なコミットメント、オンチェーンの永続化を組み合わせています。

金融サービスの文脈で何ができるか、具体例を挙げます。

私たちはこのレイヤー全体を pre-execution attestation(コミット前検証) と呼んでいます。EDR や SIEM が「止める・見る」レイヤー、フォレンジクスや SOC が「事後に追跡する」レイヤーだとすれば、これは 「コミットの前に検証する」レイヤー です。役割が異なるので既存ツールと競合せず、両方が揃って初めてレジリエンスが成立します。

直近 2 週間で、リファレンス実装を 2 本公開しました。

Trust402(4/28 公開) — x402 決済プロトコル上にエージェント間の支払いと ZK 属性証明を統合したリファレンスです。Base Sepolia 上で npm i @lemmaoracle/sdk から動かせます。

example-origin(4/30 公開) — ブリッジ/LRT 文脈の Kelp DAO / rsETH シナリオで、コミット前検証のエンドツーエンドのパイプラインを動かすリファレンスです。Poseidon over BN254 + Groth16 の ZK 証明を実プルーフ生成で走らせます。pnpm demo で 5 分以内に検証パイプラインを体験できます。

両方ともコードと、設計判断を解説したエッセイがセットで公開されています。リンクは末尾にあります。

▸ 残るもの:Models change. Proofs remain.

並べてきた動きを横断して、命題は収斂します。Anthropic の動向は、AI エージェント が普及段階に入った合図です。同時に、AI 判断の来歴を制度的・技術的に整える必要が、同じ流れから立ち上がっています。

AI モデルは半年で世代交代します。Mythos の次は、半年後に必ず来ます。一方、判断の来歴を残す検証規格は、標準化されれば次のモデルにも持ち越せます。AI エージェントの普及を一過性の流行ではなく、十年単位の制度的資産として根付かせる条件は、ここにあります。

Models change. Proofs remain. — モデルは変わる、証跡は残る。

▸ Resources

金融機関 CISO・IT 責任者、規制対応担当、x402 / MCP / agent commerce builder の方へ、次のステップをまとめます。

Built for decisions that matter.