決定論的セキュリティツールは、今やセキュリティの常套手段となり、長い間その代替案を疑問視することすらなかった。確率モデルを用いたAIがセキュリティの中核要素となる今こそ、決定論的アプローチを再考し、その必要性を明確にすべき時である。さもなければ、なぜAIで全てを置き換えないのか?
要するに、我々は予測可能性と効率性のために決定論を必要とする。SAST のような決定論的ツールSAST 、同じ対象に対して実行するたびに効率的に同じ結果SAST 。したがって、CI/CD で有用であり、コンプライアンス監査で正当化可能であり、その他すべての基盤を構築する。AIは論理的推論に優れているが、その予測不可能性ゆえ、再現性が必要なケースには適さない。
市場に確率論的ツールが増えるにつれ、我々は決定論が持続可能なセキュリティ実践をいかに生み出すか、AIが新たな可能性をいかに提供するかを分析し、両者を組み合わせて最大の効果を得る方法を解明したい。
セキュリティツールが予測可能である必要がある場合
セキュリティ業務の中には、何よりも一貫性と監査可能性が求められるものがある。この予測可能性へのニーズは、セキュリティワークフロー全体に現れている。
スキャナーが問題を検出すると、開発者は深夜11時でもその警告を信頼して対応する必要があります。CI/CD デプロイをブロックする場合、そのブロックは厳密な検証に耐えなければなりません。パイプラインでは、スキャナーはすべてのコミットやプルリクエストで実行されます。同一のコードに対して月曜日に12件、火曜日に9件の問題を検出するなら、それは問題です。 パイプラインの結果はもはや信頼できません。シグナルが不安定なため開発者はアラートを無視し始め、マージ時の有効なゲートとしてスキャン結果を利用できなくなるのです。
同様に、回帰テストも再現性に依存する。脆弱性 修正脆弱性 際、クリーンな結果が「実際に修正された」ことを意味し、単に「今回の実行でモデルが検出を逃した」わけではないことを保証する必要がある。ベースラインとドリフト検出も同様で、新たな発見がコードベースの真の変化を反映しているのか、それともスキャナのばらつきに過ぎないのかを判断するために再現性が不可欠である。
予測可能性はコンプライアンスにも不可欠である。監査担当者は、検出された内容、時期、理由が明確に記録された、時間経過に伴う一貫性のある説明可能な結果を求めている。実行ごとに異なる結果を生成するスキャナーでは、それを提供できない。
セキュリティにおける信頼性の欠如がもたらす実質的なコストは、ツール自体への信頼を徐々に損ない、最終的には誰も調査結果を真剣に受け止めなくなる。再現性、監査可能性、そして低い誤検知率は、セキュリティチームが依存できる基盤となる必要がある。
決定論的セキュリティツール
SAST 、既知のパターンや脆弱性をスキャンする決定論的なセキュリティツールのSAST 。 ハードコードされたシークレット、既知のCVE、依存関係脆弱性、インジェクションパターンなどを想定してください。動作原理は、コードを抽象構文木(AST)に解析し、ユーザー制御データがエントリポイントから使用箇所までアプリケーション内を移動する経路を追跡します。検出結果は、人間が記述・検証した特定のルールに遡及され、ルールに合致するか否かが判定されます。同一コードに対して同じスキャナを千回実行しても、同じ検出結果が得られます。
再現性こそが決定論的ツールをパイプラインの前段に最適とする理由である(一貫性がある)。ルールが人間によって記述されているため監査可能であり、コストを気にせずコミットごとに実行できる。
DAST また、スペクトルの決定論的側DAST 。稼働中のアプリケーションに対して定義済みの攻撃シミュレーションを実行し、一貫性のある再現可能な結果を返す。AIペネトレーションテスト(現時点では)よりも高速かつ低コストであるため、有用なベースラインチェックとなる。ただし、他の決定論的ツールと同様、テスト対象として定義されたものしか検出できない。
決定論的セキュリティ、あるいは予測可能な出力さえもが常に優れているとは決して言いません。決定論的ツールの信頼性を支える側面は、同時にその限界でもあります。それらはルールが定義されたものしか検出できず、新規の攻撃パターン、微妙な論理的欠陥、ビジネス文脈の理解を必要とする脆弱性は、決定論的スキャナーが捕捉できる範囲外に存在します。
決定論的ツールだけでは、文脈においてどの問題がより重要か判断できません。 一部の決定論的ツールには、脆弱な関数が実際に呼び出されるかどうかを確認できる基本的な到達可能性解析(本質的には静的コールグラフ追跡)が含まれています。しかし、データフローやビジネスロジックを考慮した上で、この発見が特定のアプリケーションで悪用可能かどうかを知りたい場合はどうでしょうか?そのような到達可能性解析と優先順位付けには、パターンマッチングを超えた推論レイヤーが必要となります。
確率的セキュリティツール
大規模言語モデル(LLM)の台頭により、AIスキャナー、自動トリアージ、エージェント型ペネトレーションテストなど、本質的に確率論的な新たなAIセキュリティツールが登場しました。確率論的ツール(またはモデルファーストツール)は固定ルールで動作しません。代わりにコードをテキストとして扱い、それについて推論を行います。
固定パターンに縛られないため、AIは機能横断的な論理を追跡し、意図を推論し、脆弱性を可視化できる。ビジネスロジックの欠陥を発見するには、コードが文字通り何をしているかだけでなく、その意図を理解する必要がある。確率的ツールはこの点に優れており、AIは進化を続けている。AIは従来なら熟練した人間のレビューが必要だった脆弱性 文脈依存型バグを発見できる。
しかし、その性質上、これらの確率モデルは予測不可能で一貫性に欠ける。 出力は実行ごとに異なる可能性(そしておそらく実際に異なる)があります。LLMは、トレーニングデータ上の確率分布に基づいて最も可能性の高い次のトークンを予測することで出力を生成します。これは、同じ入力でも、温度設定、サンプリング動作、コンテキストウィンドウ内の他の内容によって異なる出力が得られることを意味します。この変動は、ペネトレーションテストや新たな脆弱性の発見においては問題なく、むしろ有益です。CI/CD 、そうではありません。
確率的推論モデルをすべてのコミットに対する包括的なコードスキャナーとして使用しようとすると、コストの問題も生じる。LatioのJames Berthotyによる非公式なテストでは、確率的AIモデルが17分と155,000トークンを消費して問題を検出するのに対し、決定論的SAST であるOpengrepは30秒で同じ問題を発見した。 活発なコードベースのプルリクエスト全てにおいて、このトレードオフは合理的とは言えません。
なぜ両方必要なのか
しかし、決定論的モデルと確率論的モデルを組み合わせ、それぞれの手法の長所を活かして活用すると、全体が部分の総和を超えるセキュリティパイプラインが実現する。実際には、コミットごとに決定論的スキャンを実行し、既知の脆弱性 迅速かつ一貫して捕捉した後、その上にAI推論を配置し、トリアージと文脈処理を担当させるのが望ましい。
これらは「危険と分かっているもの」から「まだ発見されていないもの」までを網羅しています。後者のカテゴリーは拡大すると予想されます。AIがより多くのコードベースに組み込まれ、攻撃者も同じ推論能力を獲得するにつれ、多くの脆弱性にはまだルールが定義されていないため、対応できるツールが必要となるでしょう。
両方のツールが必要なもう一つの理由は、同じ問題を異なるレベルでカバーするからです。DAST 、同じ問題の異なる層で機能します。DAST 継続的に実行が必要な高速で決定論的なチェックにDAST 。明らかな開放ポートや公開されるべきでないページがあるかどうかを、できるだけ早く知る必要があります。AIペネトレーションテストは実行ごとに遅くコストもかかりますが、根本的に異なる深さで動作します。 3段階の認証を経ないと到達できないIDOR(情報開示脆弱性)は、DAST 検出されませんが、ペンテスト発見されます。DAST容易な問題を迅速に処理した後、AIペネトレーションテストでより複雑な問題を追跡する流れが理想的です。
どのように Aikido は
私たちは築いてきました Aikido は、決定論的スキャンとAI駆動型スキャンがスタックの異なる層で異なる問題を解決するという前提で構築されています。創業当初から、各段階で最良の結果を生み出すツールを採用することを選択してきました。
決定論的基盤はOpengrepであり、オープンソースのコード解析エンジンである。 Aikido が主導・維持を支援している。その上に、ノイズ生成することなくCI/CD に直接統合できる精度を持つ、汚染分析と厳選されたルールセットを開発した。
確率的セキュリティが真価を発揮するのは、このデータの解釈においてです。AI推論は決定論的基盤の上に構築され、ルールでは対応できない問題に対処します。 Aikidoでは、この処理をAutoTriageが担います。AutoTriageはSAST 下流に位置し、ルールエンジンだけでは判断できない悪用可能性や深刻度を判定します。
オートトリアージは二段階で実行される。まず、 Aikidoの到達可能性エンジンが、LLMがコードを分析する前に誤検知をフィルタリングします。脆弱なコードパスが実際に到達可能かどうか、ソースとシンク間にサニタイズ処理が存在するかどうか、影響を受ける依存関係が本番環境で使用されているか、それともツールやパイプライン内でのみ使用されているかを確認します。この最初のステップだけで、SAST と比較してアラートの相当な割合を抑制します。
そのフィルタを突破した複雑なケースについては、推論モデルが介入し、文脈に基づいて制御フローとデータフローを評価する。内部検証では、この手法により複雑なケースにおける誤検知が、非推論型手法と比較して約2倍正確に特定できることが判明した。例えば、入力が信頼できる上流ソースに由来する場合、SQLインジェクションの検知は安全に格下げできる。一方、ログインエンドポイントにおけるNoSQLインジェクションは、攻撃経路が単純で影響が直接的であるため、重大レベルに格上げされる。
これが機能する理由は文脈制御にある。コードベース全体に対してLLMを実行し脆弱性の発見を求めると、結果に一貫性がなくなる。モデルは文脈を見失い推測範囲を広げ、誤検知率が上昇する。 Aikidoのアプローチは、AIが推論を行う前にその視野を狭めます。汚染分析(Taint analysis)はユーザー制御データがアプリケーション内を移動する経路を追跡し、エンドポイント認識(endpoint-awareness)はモデルに完全なスタックトレースとコードの意図を提供します。これはWebAPIか?コマンドラインツールか? その役割は何か?こうした文脈を固定することで、AIは推測ではなく特定の限定された問題を評価する。これが再現性を損なわずにAI推論能力を得る方法である。
最後に、AIモデルは複雑で論理に基づいた攻撃パターンを発見するのに適しているため、ペネトレーションテストにおいて非常に効果的であることが判明しました。 Aikido 攻撃は、稼働中のアプリケーションに確率的推論を適用するAIペネトレーションテストです。エージェントは数週間ではなく数時間でテストを完了し、IDOR(ID-based OSSF)や認証バイパス、電子署名偽造など、より深い論理的欠陥を定期的に発見します。これらの欠陥の中には、人間のテスターが見逃すものさえあります。そして今、 Aikido Infiniteにより、エージェントはペンテスト を実行可能になりました。
SAST ペネトレーションテストで確認された真の陽性について、 Aikido は解決策の推論にもAIを活用します。AutoFixは対象を絞ったパッチを生成しプルリクエストを開きます。これも推論と文脈理解を必要とするAI機能です。
合気道 Aikidoでは、決定論が予測可能なカバレッジを大規模に処理する。AIはルールでは判断できない裁定を処理する。
次は何ですか?
セキュリティには決定論的信頼性とAIの創造性の両方が必要だ。決定論は規模を問わず一貫性があり監査可能で信頼できる結果をもたらす一方、AIは深み、創造性、持続性、推論力を提供し、誤検知を排除し、ノイズを減らし、異常な脆弱性を見つける。確率論的ツールも決定論的ツールも限界はあるが、真の問題はそれらが不適切な場面で使われることだ。 推論エンジンをパターンマッチングが必要な業務に投入した場合(あるいはその逆)、システムは機能不全に陥る。
より広範な方向性は、個々の製品カテゴリーよりも明確だ。決定論的ツールは、AIが優先順位付け、トリアージ、ルールだけでは不可能な修正を処理する基盤となったことで、その精度を高めている。確率論的ツールは複雑な論理的欠陥や新たな攻撃経路の発見に優れており、時間の経過とともにコスト効率も向上するだろう。 しかし継続的なベースラインチェックにおいては、決定論的スキャンの経済性は依然として有効だ。コミットごとに高速・一貫性・低コストで動作するツールが求められ、それは依然としてパターンマッチングツールである。
最も堅牢なセキュリティ態勢を構築しているチームは、決定論的ツールと確率論的ツールを適切な順序と適切な場所で併用しているチームであり、どちらか一方に賭けているわけではない。

