論文の概要: Smart-LLaMA-DPO: Reinforced Large Language Model for Explainable Smart Contract Vulnerability Detection
- arxiv url: http://arxiv.org/abs/2506.18245v1
- Date: Mon, 23 Jun 2025 02:24:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.822634
- Title: Smart-LLaMA-DPO: Reinforced Large Language Model for Explainable Smart Contract Vulnerability Detection
- Title(参考訳): Smart-LLaMA-DPO:説明可能なスマートコントラクト脆弱性検出のための強化された大規模言語モデル
- Authors: Lei Yu, Zhirong Huang, Hang Yuan, Shiqi Cheng, Li Yang, Fengjun Zhang, Chenjie Shen, Jiajia Ma, Jingyuan Zhang, Junyi Lu, Chun Zuo,
- Abstract要約: 既存の脆弱性検出方法は2つの大きな問題に直面している。
嗜好学習には包括的カバレッジと高品質な説明が欠如している。
大規模言語モデル(LLM)は、スマートコントラクトのセキュリティにおいて、特定の概念を正確に解釈するのに苦労することが多い。
- 参考スコア(独自算出の注目度): 15.694744168599055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart contract vulnerability detection remains a major challenge in blockchain security. Existing vulnerability detection methods face two main issues: (1) Existing datasets lack comprehensive coverage and high-quality explanations for preference learning. (2) Large language models (LLMs) often struggle with accurately interpreting specific concepts in smart contract security. Empirical analysis shows that even after continual pre-training (CPT) and supervised fine-tuning (SFT), LLMs may misinterpret the execution order of state changes, resulting in incorrect explanations despite making correct detection decisions. To address these challenges, we propose Smart-LLaMA-DPO based on LLaMA-3.1-8B. We construct a comprehensive dataset covering four major vulnerability types and machine-unauditable vulnerabilities, including precise labels, explanations, and locations for SFT, as well as high-quality and low-quality output pairs for Direct Preference Optimization (DPO). Second, we perform CPT using large-scale smart contract to enhance the LLM's understanding of specific security practices in smart contracts. Futhermore, we conduct SFT with our comprehensive dataset. Finally, we apply DPO, leveraging human feedback and a specially designed loss function that increases the probability of preferred explanations while reducing the likelihood of non-preferred outputs. We evaluate Smart-LLaMA-DPO on four major vulnerability types: reentrancy, timestamp dependence, integer overflow/underflow, and delegatecall, as well as machine-unauditable vulnerabilities. Our method significantly outperforms state-of-the-art baselines, with average improvements of 10.43% in F1 score and 7.87% in accuracy. Moreover, both LLM evaluation and human evaluation confirm that our method generates more correct, thorough, and clear explanations.
- Abstract(参考訳): スマートコントラクトの脆弱性検出は、ブロックチェーンセキュリティにおいて依然として大きな課題である。
既存の脆弱性検出手法は,(1)既存のデータセットには包括的カバレッジが欠如しており,優先学習のための高品質な説明が欠如している。
2)大規模言語モデル(LLM)は,スマートコントラクトセキュリティにおいて,特定の概念の正確な解釈に苦慮することが多い。
実証分析により、連続事前訓練(CPT)と教師付き微調整(SFT)の後にも、LLMは状態変化の実行順序を誤って解釈し、正しい検出判断をしても誤った説明を下すことが判明した。
これらの課題に対処するため,LLaMA-3.1-8Bに基づくSmart-LLaMA-DPOを提案する。
我々は、SFTの正確なラベル、説明、位置を含む4つの主要な脆弱性タイプとマシン不特定脆弱性を含む包括的なデータセットを構築し、また、DPO(Direct Preference Optimization)のための高品質で低品質な出力ペアを構築した。
第2に,大規模スマートコントラクトを用いたCPTを実施し,スマートコントラクトの特定のセキュリティプラクティスに対するLCMの理解を深める。
さらに,SFTを包括的データセットで実施する。
最後に、人間のフィードバックを活用するDPOと、好ましくない出力の確率を下げつつ、好ましくない説明の確率を増大させる特別に設計された損失関数を適用した。
我々は,Smart-LLaMA-DPOを,マシンが確認不能な脆弱性だけでなく,再帰性,タイムスタンプ依存,整数オーバーフロー/アンダーフロー,デリゲートコールの4つの主要な脆弱性タイプで評価した。
本手法は,F1スコアが10.43%,精度が7.87%,最先端のベースラインが大幅に向上した。
さらに,LLM評価と人的評価の両方で,本手法がより正確で徹底的で明確な説明を生成することを確認した。
関連論文リスト
- Boosting Vulnerability Detection of LLMs via Curriculum Preference Optimization with Synthetic Reasoning Data [22.557961978833386]
本稿では,脆弱性パターンのマイニングに優れた大規模言語モデル(LLM)の新たなフレームワークを提案する。
具体的には、脆弱性と対応する固定コードに対する前方および後方の推論プロセスを構築し、高品質な推論データの合成を保証する。
ReVD は LLM ベースのソフトウェア脆弱性検出のための新たな最先端技術,例えば 12.24%-22.77% の精度向上を実現している。
論文 参考訳(メタデータ) (2025-06-09T03:25:23Z) - MOS: Towards Effective Smart Contract Vulnerability Detection through Mixture-of-Experts Tuning of Large Language Models [16.16186929130931]
スマートコントラクトの脆弱性は、ブロックチェーンシステムに重大なセキュリティリスクをもたらす。
本稿では,大規模言語モデルのミックス・オブ・エキスパート・チューニング(MOE-Tuning)に基づくスマートコントラクト脆弱性検出フレームワークを提案する。
実験の結果、MOSはF1のスコアが6.32%、精度が4.80%の平均的な改善で既存の手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-04-16T16:33:53Z) - SafeMLRM: Demystifying Safety in Multi-modal Large Reasoning Models [50.34706204154244]
推論能力の獲得は、引き継がれた安全アライメントを壊滅的に劣化させる。
特定のシナリオは、25倍の攻撃率を被る。
MLRMは、厳密な推論と問合せの安全結合にもかかわらず、初期段階の自己補正を示す。
論文 参考訳(メタデータ) (2025-04-09T06:53:23Z) - PredictaBoard: Benchmarking LLM Score Predictability [50.47497036981544]
大きな言語モデル(LLM)は予測不能に失敗することが多い。
これは、安全なデプロイメントを保証する上で、大きな課題となる。
PredictaBoardは,新しいベンチマークフレームワークである。
論文 参考訳(メタデータ) (2025-02-20T10:52:38Z) - Smart-LLaMA: Two-Stage Post-Training of Large Language Models for Smart Contract Vulnerability Detection and Explanation [21.39496709865097]
既存のスマートコントラクトの脆弱性検出方法は3つの大きな問題に直面している。
データセットの十分な品質、詳細な説明と正確な脆弱性位置の欠如。
LLaMA言語モデルに基づく高度な検出手法であるSmart-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:49:42Z) - LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection [3.1409266162146467]
本稿では,スマートコントラクトの脆弱性を検出し解析する新しいフレームワークであるLLM-SmartAuditを紹介する。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
私たちのフレームワークは、従来のツールがこれまで見落としていた複雑なロジックの脆弱性を検出することができます。
論文 参考訳(メタデータ) (2024-10-12T06:24:21Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。