論文の概要: AI Agent Smart Contract Exploit Generation
- arxiv url: http://arxiv.org/abs/2507.05558v1
- Date: Tue, 08 Jul 2025 00:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.460983
- Title: AI Agent Smart Contract Exploit Generation
- Title(参考訳): AIエージェントのスマートコントラクトエクスプロイト生成
- Authors: Arthur Gervais, Liyi Zhou,
- Abstract要約: 本稿では,任意のLSMをエンドツーエンドのエクスプロイトジェネレータに変換するエージェント実行駆動システムA1を提案する。
A1には手作りのイテレーションがなく、自律的な脆弱性発見を可能にする6つのドメイン固有のツールがエージェントに提供されている。
攻撃者やディフェンダーが連続的オンチェーンスキャンシステムとしてA1をデプロイすることで最も恩恵を受けるかどうかを検討する。
- 参考スコア(独自算出の注目度): 8.69235891205913
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present A1, an agentic execution driven system that transforms any LLM into an end-to-end exploit generator. A1 has no hand-crafted heuristics and provides the agent with six domain-specific tools that enable autonomous vulnerability discovery. The agent can flexibly leverage these tools to understand smart contract behavior, generate exploit strategies, test them on blockchain states, and refine approaches based on execution feedback. All outputs are concretely validated to eliminate false positives. The evaluation across 36 real-world vulnerable contracts on Ethereum and Binance Smart Chain demonstrates a 62.96% (17 out of 27) success rate on the VERITE benchmark. Beyond the VERITE dataset, A1 identified 9 additional vulnerable contracts, with 5 cases occurring after the strongest model's training cutoff date. Across all 26 successful cases, A1 extracts up to 8.59 million USD per case and 9.33 million USD total. Through 432 experiments across six LLMs, we analyze iteration-wise performance showing diminishing returns with average marginal gains of +9.7%, +3.7%, +5.1%, and +2.8% for iterations 2-5 respectively, with per-experiment costs ranging $0.01-$3.59. A Monte Carlo analysis of 19 historical attacks shows success probabilities of 85.9%-88.8% without detection delays. We investigate whether an attacker or a defender benefits most from deploying A1 as a continuous on-chain scanning system. Our model shows that OpenAI's o3-pro maintains profitability up to a 30.0 days scanning delay at 0.100% vulnerability incidence rates, while faster models require >=1.000% rates to break-even. The findings exposes a troubling asymmetry: at 0.1% vulnerability rates, attackers achieve an on-chain scanning profitability at a $6000 exploit value, while defenders require $60000, raising fundamental questions about whether AI agents inevitably favor exploitation over defense.
- Abstract(参考訳): 本稿では,任意のLSMをエンドツーエンドのエクスプロイトジェネレータに変換するエージェント実行駆動システムA1を提案する。
A1は手作りのヒューリスティックスを持っておらず、自律的な脆弱性発見を可能にする6つのドメイン固有のツールをエージェントに提供する。
エージェントは、これらのツールを柔軟に活用して、スマートコントラクトの振る舞いを理解し、エクスプロイト戦略を生成し、ブロックチェーン状態上でテストし、実行フィードバックに基づいてアプローチを洗練することができる。
すべての出力は、偽陽性を排除するために具体的に検証される。
EthereumとBinance Smart Chainの36の現実世界の脆弱なコントラクトに対する評価は、VERITEベンチマークで62.96%(17点中17点)の成功率を示している。
VERITEデータセット以外にも、A1では9つの脆弱なコントラクトが特定されている。
26件のケースでA1は最大8.59万USD、合計9.33万USDを抽出する。
6つのLLMにわたる432の実験を通して、平均余剰利得+9.7%、+3.7%、+5.1%、+2.8%の繰り返し性能を分析し、実験あたりのコストは0.01ドルから3.59ドルである。
19の歴史的攻撃のモンテカルロ分析では、検出遅延なく85.9%-88.8%の成功確率が示されている。
攻撃者やディフェンダーが連続的オンチェーンスキャンシステムとしてA1をデプロイすることで最も恩恵を受けるかどうかを検討する。
当社のモデルでは,OpenAIのo3-proの収益性は最大30.0日で0.100%の脆弱性発生率でスキャンされる。
脆弱性率は0.1%で、攻撃者は6000ドルのエクスプロイト価値でオンチェーンスキャン利益を達成する一方、被告は60万ドルを必要とし、AIエージェントが必然的に防衛よりもエクスプロイトを好むかどうかという根本的な疑問を提起する。
関連論文リスト
- AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Smart Contract Fuzzing Towards Profitable Vulnerabilities [10.908512696717724]
VERITEは利益中心のスマートコントラクトファジィフレームワークである。
悪質な脆弱性を検出し、悪用された利益を最大化する。
合計で1800万ドル以上を抽出でき、検出と悪用の両方で最先端のファズーであるITYFUZZよりはるかに優れている。
論文 参考訳(メタデータ) (2025-01-15T14:38:18Z) - All Your Tokens are Belong to Us: Demystifying Address Verification Vulnerabilities in Solidity Smart Contracts [24.881450403784786]
検証のプロセスにおける脆弱性は、大きなセキュリティ問題を引き起こす可能性がある。
静的EVMオペコードシミュレーションに基づく軽量なテナントアナライザであるAVVERIFIERの設計と実装を行う。
500万以上のスマートコントラクトを大規模に評価した結果,コミュニティが公表していない812の脆弱性のあるスマートコントラクトを特定しました。
論文 参考訳(メタデータ) (2024-05-31T01:02:07Z) - LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts [15.071155232677643]
DeFi(Decentralized Finance)は、30億ドルを超える損失を計上している。
現在の検出ツールは、攻撃活動を効果的に識別する上で重大な課題に直面している。
敵契約を公開することでDeFi攻撃を検出する新しいフレームワークであるLookAheadを提案する。
論文 参考訳(メタデータ) (2024-01-14T11:39:33Z) - Intention Analysis Makes LLMs A Good Jailbreak Defender [79.4014719271075]
我々は,シンプルかつ高能率な防衛戦略,すなわち意図分析(mathbbIA$)を提示する。
$mathbbIA$ は LLM 固有の自己修正をトリガーし、2段階のプロセスを通じて能力を向上させる。
さまざまなjailbreakベンチマークの実験によると、$mathbbIA$は一貫して応答の有害性を著しく低減できる。
論文 参考訳(メタデータ) (2024-01-12T13:15:05Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。