論文の概要: Adaptive Plan-Execute Framework for Smart Contract Security Auditing
- arxiv url: http://arxiv.org/abs/2505.15242v1
- Date: Wed, 21 May 2025 08:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.222366
- Title: Adaptive Plan-Execute Framework for Smart Contract Security Auditing
- Title(参考訳): スマートコントラクトセキュリティ監査のための適応型計画実行フレームワーク
- Authors: Zhiyuan Wei, Jing Sun, Zijian Zhang, Zhe Hou, Zixiao Zhao,
- Abstract要約: 大規模言語モデル(LLM)は、コード分析と監査において大きな可能性を示しています。
LLMは幻覚と限定的な文脈認識推論に苦しむ。
スマートコントラクトセキュリティ分析を強化する新しいPlan-ExecuteフレームワークであるSmartAuditFlowを紹介する。
- 参考スコア(独自算出の注目度): 3.964276806941528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown great promise in code analysis and auditing; however, they still struggle with hallucinations and limited context-aware reasoning. We introduce SmartAuditFlow, a novel Plan-Execute framework that enhances smart contract security analysis through dynamic audit planning and structured execution. Unlike conventional LLM-based auditing approaches that follow fixed workflows and predefined steps, SmartAuditFlow dynamically generates and refines audit plans based on the unique characteristics of each smart contract. It continuously adjusts its auditing strategy in response to intermediate LLM outputs and newly detected vulnerabilities, ensuring a more adaptive and precise security assessment. The framework then executes these plans step by step, applying a structured reasoning process to enhance vulnerability detection accuracy while minimizing hallucinations and false positives. To further improve audit precision, SmartAuditFlow integrates iterative prompt optimization and external knowledge sources, such as static analysis tools and Retrieval-Augmented Generation (RAG). This ensures audit decisions are contextually informed and backed by real-world security knowledge, producing comprehensive security reports. Extensive evaluations across multiple benchmarks demonstrate that SmartAuditFlow outperforms existing methods, achieving 100 percent accuracy on common and critical vulnerabilities, 41.2 percent accuracy for comprehensive coverage of known smart contract weaknesses in real-world projects, and successfully identifying all 13 tested CVEs. These results highlight SmartAuditFlow's scalability, cost-effectiveness, and superior adaptability over traditional static analysis tools and contemporary LLM-based approaches, establishing it as a robust solution for automated smart contract auditing.
- Abstract(参考訳): 大規模言語モデル(LLM)はコード分析と監査において大きな可能性を秘めている。
我々は、動的監査計画と構造化実行を通じてスマートコントラクトセキュリティ分析を強化する新しいPlan-ExecuteフレームワークであるSmartAuditFlowを紹介する。
固定ワークフローと事前定義されたステップに従う従来のLCMベースの監査アプローチとは異なり、SmartAuditFlowは各スマートコントラクトのユニークな特性に基づいて監査計画を動的に生成し、洗練する。
中間的なLCM出力と新たに検出された脆弱性に応答して監査戦略を継続的に調整し、より適応的で正確なセキュリティアセスメントを保証する。
そして、これらのプランを段階的に実行し、構造化された推論プロセスを適用して、幻覚や偽陽性を最小限に抑えながら脆弱性検出の精度を高める。
監査精度をさらに向上するため、SmartAuditFlowでは、静的解析ツールやRAG(Retrieval-Augmented Generation)など、反復的なプロンプト最適化と外部知識ソースを統合している。
これにより、監査決定がコンテキスト的に通知され、現実のセキュリティ知識によって裏付けられ、包括的なセキュリティレポートが作成される。
複数のベンチマークにわたる大規模な評価によると、SmartAuditFlowは既存のメソッドよりも優れており、共通およびクリティカルな脆弱性の100%の正確性、既知のスマートコントラクトの脆弱性を実際のプロジェクトで包括的にカバーするための41.2の正確性、13のテスト済みCVEのすべてに成功している。
これらの結果は、SmartAuditFlowのスケーラビリティ、コスト効率、従来の静的解析ツールやLLMベースのアプローチよりも優れた適応性を強調し、自動スマートコントラクト監査の堅牢なソリューションとして確立しています。
関連論文リスト
- Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大きな言語モデル(LLM)は、不一致の自己認識のためにしばしば幻覚する。
既存のアプローチは、不確実性推定やクエリの拒否を通じて幻覚を緩和する。
高速かつ低速な推論システムを統合するための明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - SmartLLM: Smart Contract Auditing using Custom Generative AI [0.0]
本稿では,LLaMA 3.1モデルにレトリーバル拡張生成(RAG)を応用した新しいアプローチであるSmartLLMを紹介する。
ERC標準からドメイン固有の知識を統合することで、SmartLLMはMythrilやSlitherのような静的解析ツールよりも優れたパフォーマンスを実現している。
実験の結果、100%の完全なリコールと70%の精度スコアが示され、脆弱性の特定におけるモデルの堅牢性を強調した。
論文 参考訳(メタデータ) (2025-02-17T06:22:05Z) - FTSmartAudit: A Knowledge Distillation-Enhanced Framework for Automated Smart Contract Auditing Using Fine-Tuned LLMs [17.76505488643214]
本稿では,スマートコントラクト監査において,より小型で微調整されたモデルを用いて,同等あるいは優れた結果が得られる可能性について検討する。
本稿では,スマートコントラクト監査のための費用対効果の高い特化モデルの開発を目的としたFTSmartAuditフレームワークを紹介する。
コントリビューションには,(1)データ準備,トレーニング,評価,継続的な学習を効率化するシングルタスク学習フレームワーク,(2)ドメイン固有知識蒸留を利用した堅牢なデータセット生成手法,(3)モデルの正確性と堅牢性を維持するための適応型学習戦略などが含まれている。
論文 参考訳(メタデータ) (2024-10-17T09:09:09Z) - LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection [3.1409266162146467]
本稿では,スマートコントラクトの脆弱性を検出し解析する新しいフレームワークであるLLM-SmartAuditを紹介する。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
私たちのフレームワークは、従来のツールがこれまで見落としていた複雑なロジックの脆弱性を検出することができます。
論文 参考訳(メタデータ) (2024-10-12T06:24:21Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees [68.33498595506941]
自己整合性理論に基づく新しい不確実性尺度を導入する。
次に,CPアルゴリズムに正当性に整合した不確かさ条件を組み込むことにより,適合性不確かさの基準を策定する。
実証的な評価は、我々の不確実性測定が過去の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-29T17:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。