論文の概要: LLM-Powered Detection of Price Manipulation in DeFi
- arxiv url: http://arxiv.org/abs/2510.21272v1
- Date: Fri, 24 Oct 2025 09:13:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.421205
- Title: LLM-Powered Detection of Price Manipulation in DeFi
- Title(参考訳): LLMによるDeFiの価格操作検出
- Authors: Lu Liu, Wuqi Zhang, Lili Wei, Hao Guan, Yongqiang Tian, Yepang Liu,
- Abstract要約: 分散ファイナンス(DeFi)のスマートコントラクトは数十億ドルを管理し、エクスプロイトの主要なターゲットとなっている。
価格操作の脆弱性は、しばしばフラッシュローンを通じて発生し、壊滅的な攻撃の類である。
本稿では,静的解析とLarge Language Model(LLM)に基づく推論を組み合わせたハイブリッドフレームワークPMDetectorを提案する。
- 参考スコア(独自算出の注目度): 12.59175486585742
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decentralized Finance (DeFi) smart contracts manage billions of dollars, making them a prime target for exploits. Price manipulation vulnerabilities, often via flash loans, are a devastating class of attacks causing significant financial losses. Existing detection methods are limited. Reactive approaches analyze attacks only after they occur, while proactive static analysis tools rely on rigid, predefined heuristics, limiting adaptability. Both depend on known attack patterns, failing to identify novel variants or comprehend complex economic logic. We propose PMDetector, a hybrid framework combining static analysis with Large Language Model (LLM)-based reasoning to proactively detect price manipulation vulnerabilities. Our approach uses a formal attack model and a three-stage pipeline. First, static taint analysis identifies potentially vulnerable code paths. Second, a two-stage LLM process filters paths by analyzing defenses and then simulates attacks to evaluate exploitability. Finally, a static analysis checker validates LLM results, retaining only high-risk paths and generating comprehensive vulnerability reports. To evaluate its effectiveness, we built a dataset of 73 real-world vulnerable and 288 benign DeFi protocols. Results show PMDetector achieves 88% precision and 90% recall with Gemini 2.5-flash, significantly outperforming state-of-the-art static analysis and LLM-based approaches. Auditing a vulnerability with PMDetector costs just $0.03 and takes 4.0 seconds with GPT-4.1, offering an efficient and cost-effective alternative to manual audits.
- Abstract(参考訳): 分散ファイナンス(DeFi)のスマートコントラクトは数十億ドルを管理し、エクスプロイトの主要なターゲットとなっている。
価格操作の脆弱性は、しばしばフラッシュローンを通じて発生し、壊滅的な攻撃の類である。
既存の検出方法は限られている。
リアクティブアプローチは攻撃発生後のみを解析するが、アクティブな静的解析ツールは厳格で事前定義されたヒューリスティックに依存し、適応性を制限する。
どちらも既知の攻撃パターンに依存しており、新しい変種を特定したり、複雑な経済論理を理解できなかった。
本稿では,静的解析とLarge Language Model(LLM)に基づく推論を組み合わせるハイブリッドフレームワークPMDetectorを提案し,価格操作の脆弱性を積極的に検出する。
私たちのアプローチでは、フォーマルなアタックモデルと3段階のパイプラインを使用します。
まず、静的なtaint分析は潜在的に脆弱なコードパスを特定する。
第二に、2段階のLLMプロセスは、防御を分析してパスをフィルタリングし、次に攻撃をシミュレートして、悪用性を評価する。
最後に、静的解析チェッカーがLSMの結果を検証し、リスクの高いパスのみを保持し、包括的な脆弱性レポートを生成する。
その有効性を評価するために、73の現実世界の脆弱性と288の良質なDeFiプロトコルのデータセットを構築した。
その結果, PMDetectorの精度は88%, Gemini 2.5-flashによるリコール率は90%で, 最先端の静的解析とLCMベースのアプローチよりも優れていた。
PMDetectorによる脆弱性の監査は0.03ドルで、GPT-4.1で4.0秒かかる。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - The Hitchhiker's Guide to Program Analysis, Part II: Deep Thoughts by LLMs [17.497629884237647]
BugLensは、バグ検出のための静的解析精度を大幅に向上させる、ポストリファインメントフレームワークである。
LLMは有望なコード理解能力を示すが、プログラム分析への直接の応用は信頼できない。
LLMは、セキュリティへの影響を評価し、ソースコードから制約を検証するため、構造化された推論ステップを通じてLLMをガイドする。
論文 参考訳(メタデータ) (2025-04-16T02:17:06Z) - Enhancing Smart Contract Vulnerability Detection in DApps Leveraging Fine-Tuned LLM [0.7018579932647147]
分散アプリケーション(DApps)は、スマートコントラクトの脆弱性のため、重大なセキュリティリスクに直面します。
本稿では,Large Language Models (LLM) を利用したスマートコントラクト脆弱性検出手法を提案する。
論文 参考訳(メタデータ) (2025-04-07T12:32:14Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Can LLM Prompting Serve as a Proxy for Static Analysis in Vulnerability Detection [9.269926508651091]
大規模言語モデル(LLM)は、脆弱性検出などの安全クリティカルなコードタスクに制限があることを示している。
本稿では,脆弱性の自然言語命令を,対照的な連鎖推論と統合する戦略を提案する。
本研究は,静的アナライザの厳格な手作りルールに代えて,セキュリティ対応のプロンプト技術が有効であることを示す。
論文 参考訳(メタデータ) (2024-12-16T18:08:14Z) - Uncertainty is Fragile: Manipulating Uncertainty in Large Language Models [79.76293901420146]
大規模言語モデル(LLM)は、出力の信頼性が不可欠である様々な高い領域で採用されている。
本研究では,不確実性推定の脆弱性を調査し,攻撃の可能性を探る。
攻撃者がLSMにバックドアを埋め込むことができ、入力中の特定のトリガーによって起動されると、最終的な出力に影響を与えることなくモデルの不確実性を操作できることを示す。
論文 参考訳(メタデータ) (2024-07-15T23:41:11Z) - Intention Analysis Makes LLMs A Good Jailbreak Defender [79.4014719271075]
我々は,シンプルかつ高能率な防衛戦略,すなわち意図分析(mathbbIA$)を提示する。
$mathbbIA$ は LLM 固有の自己修正をトリガーし、2段階のプロセスを通じて能力を向上させる。
さまざまなjailbreakベンチマークの実験によると、$mathbbIA$は一貫して応答の有害性を著しく低減できる。
論文 参考訳(メタデータ) (2024-01-12T13:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。