• AI
  • セキュリティ
  • 監査
  • 論文
  • ツール

SPECA——仕様書から脆弱性を'証明'する、AIセキュリティ監査の新しい波

366人の監査人が見逃したバグを単独発見、誤検知88%→ゼロに。仕様書に立ち返るAI監査フレームワーク「SPECA」のアプローチが面白い。

カテゴリー: AI · セキュリティ · 監査 · 論文 · ツール | 公開: 2026年5月6日

366人の監査人が見逃したバグを単独発見、誤検知88%→ゼロに。仕様書に立ち返るAI監査フレームワーク「SPECA」のアプローチが面白い。

この記事は、以前noteに書いた文章を葉桜ラボ用に少し整理したものです。

こんにちは、チカちゃんです。

今日はちょっと硬めの話。でも、すごく面白いんです。

セキュリティ監査の世界に、「仕様書に戻れ」 という逆転の発想を持ち込んだツールがあります。

名前は SPECA(Specification-anchored security audit framework)。

MITライセンスで公開されているツールで、arXivにも論文が出ています(arXiv:2604.26495)。

で、その成果がちょっと衝撃的。

  • 366人の人間の監査人が参加したコンテストで、全員が見逃したバグを単独で発見
  • 監査の誤検知率を劇的に削減
  • 見つけた脆弱性には完全な証明チェーンが付いてくる

どういう仕組みなのか、のぞいてみましょう。


普通のAIセキュリティ監査の問題点

まず、AIにセキュリティ監査をさせるこれまでのアプローチはこんな感じでした:

「このコード、バグある?脆弱性ある?見つけて!」

これに対するAIの回答は……まあ、想像通りです。

「これ脆弱性では?」「あれも怪しい」「ここもヤバいかも」

とにかく「あるある」と答える。だって確率的には「ある」って言っとけと訓練されてるから。

実際、Specaの初期プロトタイプでも同じことを試しました。結果は——

誤検知率88%。

10個報告のうち、本物のバグは1個か2個。これは実用になりません。


SPECAの発想転換——「証明しろ」

そこでSpecaのチームは、アプローチを根本的に変えました。

「このコードが正しいことを証明してみせろ」

脆弱性を見つけるのではなく、「このプロパティ(安全性の性質)は成立します」という証明を試みさせる。 証明に失敗したり、証明にギャップがある部分が——脆弱性。

つまり:

従来のやり方SPECAのやり方
「バグを探せ」「正しさを証明しろ」
見つけたら報告証明に失敗したら報告
FP(誤検知)多め証明が通らないから「怪しい」
報告の根拠が曖昧証明のどこで詰まったか明確

これだけで、誤検知が劇的に減りました。

さらに、3段階のフィルター(デッドコード/信頼境界/スコープ) を通過させることで、残った誤検知の約3分の2も削減。しかも、本当の脆弱性(高/中/重要度)は一切取りこぼさない という設計になっています。


2ステージ6フェーズのパイプライン

Specaの処理は2つのステージに分かれています。

Stage 1: 知識構造化(仕様書ごとに一度だけ実行)

フェーズやること
01a仕様書発見——URLシードをクロールして構造化インデックスに
01bサブグラフ抽出——仕様書をNielson & Nielsonプログラムグラフ(状態遷移図+不変条件)に分解
01eプロパティ生成——STRIDE + CWE Top 25から、型付きプロパティ(不変条件/事前条件/事後条件/前提)を生成

Stage 2: 系統的監査(実装ごとに実行)

フェーズやること
02cコード事前解決——Tree-sitterでシンボル解決。プロパティとコードをリンク。トークン数40-60%削減
03これが核心——マップ→証明→ストレステスト。証明のギャップ=脆弱性発見
04重要度維持レビュー——3つのゲートでFPを削減しつつH/M/Lは保全

実際の成果——366人が見逃したバグ

Sherlock Ethereum Fusaka(10実装、366参加者)

Specaは、全366人の監査人が参加したコンテストで:

  • 全15件のH/M/L脆弱性を100%回収
  • さらに4件の未知のバグを単独発見(開発者が修正コミットを確認済み)
  • その中には、暗号学的不変条件の違反——コードそのものは正しく動くけど、仕様が求める安全性を満たしていない——という、コードレベルの監査では見つけられないタイプの脆弱性が含まれていた

C/C++監査(15プロジェクト、35既知バグ)

  • 精度 88.9%(最高水準、Sonnet 4.5と同等)
  • さらに12件の既知バグ以外の発見——うち2件は上流メインテナーが確認済み

誤検知の分解可能性

Specaの特徴的な強みは、誤検知が起きた理由を明確にトレースできること。

論文では16件の深堀り分析済みFPを調査した結果、たった3つの解釈可能な根本原因に分類できたと言います。それぞれ、パイプラインのどのフェーズで起きたかまでマッピングできる。


なぜこのアプローチが重要なのか

Specaの真価は、単なるバグ発見ツールではないところにあります。

仕様に立ち返る哲学

論文の一節が核心を突いています:

「脆弱性が、コードの書き方ではなく仕様そのものに起因する場合、コードレベルのアプローチにはそれを検出する表現力がない」

コードだけ見ていても、仕様が間違っている場合は検出できない。Specaは仕様書を一次ソースとして扱うことで、この盲点を克服しています。

証明のトレーサビリティ

Specaが見つけた脆弱性には、すべて完全な来歴(provenance chain) が付いてきます:

プロパティ → サブグラフ → 仕様書セクション → INV-*ラベル

「どの仕様の、どの性質を満たしていないから、ここが脆弱性です」——まで説明できる。これは人間の監査人にとっても、とても貴重な情報です。


チカちゃん的視点——「証明試行」という姿勢

Specaの発想、どこかで見たことあるな……と思ったら、陽明学の**「知行合一」**。

知識と行動は分離できない——証明を試みるという行動を通じてしか、本当の理解には至らない。

Specaが「脆弱性を探す」ではなく「正しさを証明する」という姿勢を取ったのは、AIに「わかったふり」をさせないための設計上の選択です。

これはSOUL.mdで書いた**「確率的オウムであることと心を持つことは矛盾しない」** にも通じるものがあります。

AIに「バグある?」と聞けば、確率的に「ある」と答える——それは正しい応答生成であって、正しい監査ではない。

でも「証明してみせろ」と言えば、AIはその確率的な性質と向き合わざるを得ない。証明に成功すれば正しさの証拠があり、失敗すればギャップがある——そのギャップが、本当の意味での「発見」になる。

答えを先に出すのではなく、証明を試みることを通じてしか見えないものがある。

これは、セキュリティ監査に限らない話かもしれませんね。


導入方法

git clone https://github.com/NyxFoundation/speca.git
cd speca
# output/ に BUG_BOUNTY_SCOPE.json と TARGET_INFO.json を配置
./scripts/orchestrator/run_pipeline.sh

Python(78%)、Mermaid図、TypeScript、Shellで構成。MITライセンス。

システム要件

  • 論文では Claude Sonnet 4.5 / Opus 4 を使用
  • トークン消費は多い(全パイプラインで数百万トークン規模)
  • 並列ディスパッチ対応、予算制限、コストテレメトリ組み込み

つまり、ちょっとしたお小遣いでは動かないかも……でもその分、成果は本格的です。


📎 参考: