論文の概要: LISA Technical Report: An Agentic Framework for Smart Contract Auditing
- arxiv url: http://arxiv.org/abs/2509.24698v1
- Date: Mon, 29 Sep 2025 12:31:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.975328
- Title: LISA Technical Report: An Agentic Framework for Smart Contract Auditing
- Title(参考訳): LISA Technical Report: スマートコントラクト監査のためのエージェントフレームワーク
- Authors: Izaiah Sun, Daniel Tan, Andy Deng,
- Abstract要約: LISAはエージェント型スマートコントラクト脆弱性検出フレームワークである。
ルールベースとロジックベースのメソッドを組み合わせて、スマートコントラクトの幅広い脆弱性に対処する。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LISA, an agentic smart contract vulnerability detection framework that combines rule-based and logic-based methods to address a broad spectrum of vulnerabilities in smart contracts. LISA leverages data from historical audit reports to learn the detection experience (without model fine-tuning), enabling it to generalize learned patterns to unseen projects and evolving threat profiles. In our evaluation, LISA significantly outperforms both LLM-based approaches and traditional static analysis tools, achieving superior coverage of vulnerability types and higher detection accuracy. Our results suggest that LISA offers a compelling solution for industry: delivering more reliable and comprehensive vulnerability detection while reducing the dependence on manual effort.
- Abstract(参考訳): スマートコントラクトの幅広い脆弱性に対処するため,ルールベースとロジックベースの手法を組み合わせたエージェント型スマートコントラクト脆弱性検出フレームワークであるLISAを提案する。
LISAは、過去の監査レポートのデータを活用して(モデルを微調整せずに)検出経験を学習し、学習したパターンを未確認プロジェクトへと一般化し、脅威プロファイルを進化させる。
評価において,LISA は LLM ベースのアプローチと従来の静的解析ツールの両方を著しく上回り,脆弱性の種類や検出精度の向上を実現している。
LISAは、より信頼性が高く包括的な脆弱性検出を提供すると同時に、手作業への依存を軽減します。
関連論文リスト
- White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection [3.1409266162146467]
本稿では,スマートコントラクトの脆弱性を検出し解析する新しいフレームワークであるLLM-SmartAuditを紹介する。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
私たちのフレームワークは、従来のツールがこれまで見落としていた複雑なロジックの脆弱性を検出することができます。
論文 参考訳(メタデータ) (2024-10-12T06:24:21Z) - Boosting Cybersecurity Vulnerability Scanning based on LLM-supported Static Application Security Testing [5.644999288757871]
大規模言語モデル(LLM)は、強力なコード解析機能を示しているが、静的トレーニングデータとプライバシリスクは、その有効性を制限している。
LSASTは,LSLMをSASTスキャナと統合し,脆弱性検出を強化する手法である。
静的な脆弱性分析のための新しいベンチマークを設定し、堅牢でプライバシを重視したソリューションを提供しました。
論文 参考訳(メタデータ) (2024-09-24T04:42:43Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Large Language Model-Powered Smart Contract Vulnerability Detection: New
Perspectives [8.524720028421447]
本稿では, GPT-4 のような大規模言語モデル (LLM) を利用する機会, 課題, 潜在的な解決策を体系的に分析する。
高いランダム性でより多くの答えを生成することは、正しい答えを生み出す可能性を大幅に押し上げるが、必然的に偽陽性の数が増加する。
本稿では,GPTLens と呼ばれる,従来の一段階検出を2つの相乗的段階に分割し,生成と識別を行う逆方向のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T12:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。