論文の概要: Large Language Model based Smart Contract Auditing with LLMBugScanner
- arxiv url: http://arxiv.org/abs/2512.02069v1
- Date: Sat, 29 Nov 2025 19:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.551063
- Title: Large Language Model based Smart Contract Auditing with LLMBugScanner
- Title(参考訳): LLMBugScannerを用いた大規模言語モデルに基づくスマートコントラクト監査
- Authors: Yining Yuan, Yifei Wang, Yichang Xu, Zachary Yahn, Sihao Hu, Ling Liu,
- Abstract要約: スマートコントラクト監査による大規模言語モデル(LLM)の課題
すべての脆弱性タイプやコントラクト構造に対して一貫して機能するモデルは存在しない。
LLMBugScannerは、ドメイン知識適応とアンサンブル推論を組み合わせることで、堅牢性と一般化を改善する。
- 参考スコア(独自算出の注目度): 16.70822025530469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents LLMBugScanner, a large language model (LLM) based framework for smart contract vulnerability detection using fine-tuning and ensemble learning. Smart contract auditing presents several challenges for LLMs: different pretrained models exhibit varying reasoning abilities, and no single model performs consistently well across all vulnerability types or contract structures. These limitations persist even after fine-tuning individual LLMs. To address these challenges, LLMBugScanner combines domain knowledge adaptation with ensemble reasoning to improve robustness and generalization. Through domain knowledge adaptation, we fine-tune LLMs on complementary datasets to capture both general code semantics and instruction-guided vulnerability reasoning, using parameter-efficient tuning to reduce computational cost. Through ensemble reasoning, we leverage the complementary strengths of multiple LLMs and apply a consensus-based conflict resolution strategy to produce more reliable vulnerability assessments. We conduct extensive experiments across multiple popular LLMs and compare LLMBugScanner with both pretrained and fine-tuned individual models. Results show that LLMBugScanner achieves consistent accuracy improvements and stronger generalization, demonstrating that it provides a principled, cost-effective, and extensible framework for smart contract auditing.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)に基づく,微細チューニングとアンサンブル学習を用いたスマートコントラクト脆弱性検出フレームワークであるLLMBugScannerを提案する。
異なる事前訓練されたモデルは、さまざまな推論能力を示し、すべての脆弱性タイプやコントラクト構造に対して一貫して機能する単一のモデルは存在しない。
これらの制限は個々のLSMを微調整した後でも持続する。
これらの課題に対処するため、LLMBugScannerはドメイン知識適応とアンサンブル推論を組み合わせ、堅牢性と一般化を改善する。
汎用コードセマンティクスと命令誘導型脆弱性推論の両方を捉え,パラメータ効率の調整により計算コストを削減した。
アンサンブル推論により、複数のLDMの相補的強度を活用し、コンセンサスに基づく競合解決戦略を適用し、より信頼性の高い脆弱性評価を行う。
LLMBugScannerを事前学習と微調整の両方の個別モデルと比較した。
その結果、LLMBugScannerは一貫性のある精度の向上とより強力な一般化を実現し、スマートコントラクト監査のための原則付き、費用対効果、拡張可能なフレームワークを提供することを示した。
関連論文リスト
- ParaVul: A Parallel Large Language Model and Retrieval-Augmented Framework for Smart Contract Vulnerability Detection [43.41293570032631]
ParaVulは、スマートコントラクト脆弱性検出の信頼性と精度を向上させるための、検索強化フレームワークである。
LLM微調整のためのスパースローランド適応(SLoRA)を開発した。
脆弱性契約データセットを構築し,RAG(Retrieval-Augmented Generation)システムを開発した。
論文 参考訳(メタデータ) (2025-10-20T03:23:41Z) - Beyond Majority Voting: LLM Aggregation by Leveraging Higher-Order Information [57.397381631496906]
最適重み(OW)と逆サプライシング人気度(ISP)という2つの新しいアグリゲーションアルゴリズムを開発した。
我々の理論的分析は、これらの手法が軽微な仮定の下での多数決の本質的な制限を確実に緩和することを示している。
我々は,我々のアルゴリズムを人工データセット,UltraFeedbackやMMLUなどのLLMファインチューニングベンチマーク,実世界の医療環境ARMMAN上で実証的に検証した。
論文 参考訳(メタデータ) (2025-10-01T22:21:50Z) - Ensembling Large Language Models for Code Vulnerability Detection: An Empirical Evaluation [69.8237598448941]
本研究では,ソースコードの脆弱性検出において,Large Language Models(LLM)の性能を高めるためのアンサンブル学習の可能性を検討する。
脆弱性検出に適したスタック機能であるDynamic Gated Stacking (DGS)を提案する。
論文 参考訳(メタデータ) (2025-09-16T03:48:22Z) - CompassVerifier: A Unified and Robust Verifier for LLMs Evaluation and Outcome Reward [50.97588334916863]
評価と結果報酬のための正確で堅牢な軽量検証モデルであるCompassVerifierを開発した。
数学、知識、多種多様な推論タスクにまたがる多分野の能力を示し、様々な答えの型を処理する能力を示す。
我々は,複数のデータソースから収集したモデル出力からなるVerifierBenchベンチマークを導入し,メタエラーパターンを手動で解析してCompassVerifierを強化する。
論文 参考訳(メタデータ) (2025-08-05T17:55:24Z) - SAEL: Leveraging Large Language Models with Adaptive Mixture-of-Experts for Smart Contract Vulnerability Detection [14.581402965011117]
スマートコントラクト脆弱性検出のためのLLMベースのフレームワークであるSAELを提案する。
まず、脆弱性を特定し、説明を生成するためにLSMを誘導するプロンプトを設計する。
次に、CodeT5とT5のプロンプトチューニングをコントラクトコードと説明処理に適用し、タスク固有のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2025-07-30T04:28:00Z) - Leveraging Large Language Models and Machine Learning for Smart Contract Vulnerability Detection [0.0]
我々は、モデル性能を比較するために、機械学習アルゴリズムを訓練、テストし、タイプに応じてスマートコントラクトコードを分類する。
我々の研究は、機械学習と大規模言語モデルを組み合わせて、さまざまなスマートコントラクトの脆弱性を検出するリッチで解釈可能なフレームワークを提供します。
論文 参考訳(メタデータ) (2025-01-04T08:32:53Z) - LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection [3.1409266162146467]
本稿では,スマートコントラクトの脆弱性を検出し解析する新しいフレームワークであるLLM-SmartAuditを紹介する。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
私たちのフレームワークは、従来のツールがこれまで見落としていた複雑なロジックの脆弱性を検出することができます。
論文 参考訳(メタデータ) (2024-10-12T06:24:21Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。