論文の概要: LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection
- arxiv url: http://arxiv.org/abs/2410.09381v2
- Date: Mon, 4 Nov 2024 09:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 21:39:30.350273
- Title: LLM-SmartAudit: Advanced Smart Contract Vulnerability Detection
- Title(参考訳): LLM-SmartAudit:高度なスマートコントラクト脆弱性検出
- Authors: Zhiyuan Wei, Jing Sun, Zijiang Zhang, Xianhao Zhang, Meng Li, Zhe Hou,
- Abstract要約: 本稿では,スマートコントラクトの脆弱性を検出し解析する新しいフレームワークであるLLM-SmartAuditを紹介する。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
私たちのフレームワークは、従来のツールがこれまで見落としていた複雑なロジックの脆弱性を検出することができます。
- 参考スコア(独自算出の注目度): 3.1409266162146467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The immutable nature of blockchain technology, while revolutionary, introduces significant security challenges, particularly in smart contracts. These security issues can lead to substantial financial losses. Current tools and approaches often focus on specific types of vulnerabilities. However, a comprehensive tool capable of detecting a wide range of vulnerabilities with high accuracy is lacking. This paper introduces LLM-SmartAudit, a novel framework leveraging the advanced capabilities of Large Language Models (LLMs) to detect and analyze vulnerabilities in smart contracts. Using a multi-agent conversational approach, LLM-SmartAudit employs a collaborative system with specialized agents to enhance the audit process. To evaluate the effectiveness of LLM-SmartAudit, we compiled two distinct datasets: a labeled dataset for benchmarking against traditional tools and a real-world dataset for assessing practical applications. Experimental results indicate that our solution outperforms all traditional smart contract auditing tools, offering higher accuracy and greater efficiency. Furthermore, our framework can detect complex logic vulnerabilities that traditional tools have previously overlooked. Our findings demonstrate that leveraging LLM agents provides a highly effective method for automated smart contract auditing.
- Abstract(参考訳): ブロックチェーン技術の不変性は、革命的ではあるが、特にスマートコントラクトにおいて、重大なセキュリティ上の課題をもたらしている。
これらのセキュリティ問題は大きな損失をもたらす可能性がある。
現在のツールとアプローチは、しばしば特定のタイプの脆弱性に焦点を当てている。
しかし、広範囲の脆弱性を高い精度で検出できる包括的なツールが欠如している。
本稿では,LLM-SmartAuditについて紹介する。LLM-SmartAuditは,Large Language Models(LLMs)の高度な機能を活用して,スマートコントラクトの脆弱性を検出し解析するフレームワークである。
LLM-SmartAuditは、マルチエージェントの会話アプローチを用いて、監査プロセスを強化するために、特殊なエージェントとの協調システムを採用している。
LLM-SmartAuditの有効性を評価するために,従来のツールに対してベンチマークを行うラベル付きデータセットと,実用的なアプリケーションを評価する実世界のデータセットの2つの異なるデータセットをコンパイルした。
実験の結果,我々のソリューションは従来のスマートコントラクト監査ツールよりも優れており,精度が高く,効率も高いことがわかった。
さらに、従来のツールがこれまで見落としていた複雑なロジックの脆弱性も検出できる。
以上の結果から,LLMエージェントの活用がスマートコントラクト自動監査に有効であることが示唆された。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - SmartLLM: Smart Contract Auditing using Custom Generative AI [0.0]
本稿では,LLaMA 3.1モデルにレトリーバル拡張生成(RAG)を応用した新しいアプローチであるSmartLLMを紹介する。
ERC標準からドメイン固有の知識を統合することで、SmartLLMはMythrilやSlitherのような静的解析ツールよりも優れたパフォーマンスを実現している。
実験の結果、100%の完全なリコールと70%の精度スコアが示され、脆弱性の特定におけるモデルの堅牢性を強調した。
論文 参考訳(メタデータ) (2025-02-17T06:22:05Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Leveraging Large Language Models and Machine Learning for Smart Contract Vulnerability Detection [0.0]
我々は、モデル性能を比較するために、機械学習アルゴリズムを訓練、テストし、タイプに応じてスマートコントラクトコードを分類する。
我々の研究は、機械学習と大規模言語モデルを組み合わせて、さまざまなスマートコントラクトの脆弱性を検出するリッチで解釈可能なフレームワークを提供します。
論文 参考訳(メタデータ) (2025-01-04T08:32:53Z) - Smart-LLaMA: Two-Stage Post-Training of Large Language Models for Smart Contract Vulnerability Detection and Explanation [21.39496709865097]
既存のスマートコントラクトの脆弱性検出方法は3つの大きな問題に直面している。
データセットの十分な品質、詳細な説明と正確な脆弱性位置の欠如。
LLaMA言語モデルに基づく高度な検出手法であるSmart-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:49:42Z) - FTSmartAudit: A Knowledge Distillation-Enhanced Framework for Automated Smart Contract Auditing Using Fine-Tuned LLMs [17.76505488643214]
本稿では,スマートコントラクト監査において,より小型で微調整されたモデルを用いて,同等あるいは優れた結果が得られる可能性について検討する。
本稿では,スマートコントラクト監査のための費用対効果の高い特化モデルの開発を目的としたFTSmartAuditフレームワークを紹介する。
コントリビューションには,(1)データ準備,トレーニング,評価,継続的な学習を効率化するシングルタスク学習フレームワーク,(2)ドメイン固有知識蒸留を利用した堅牢なデータセット生成手法,(3)モデルの正確性と堅牢性を維持するための適応型学習戦略などが含まれている。
論文 参考訳(メタデータ) (2024-10-17T09:09:09Z) - Vulnerability Detection in Ethereum Smart Contracts via Machine Learning: A Qualitative Analysis [0.0]
スマートコントラクトに対する機械学習の脆弱性検出における技術の現状を分析する。
スマートコントラクトにおける脆弱性検出の精度,スコープ,効率を高めるためのベストプラクティスについて議論する。
論文 参考訳(メタデータ) (2024-07-26T10:09:44Z) - AutoDetect: Towards a Unified Framework for Automated Weakness Detection in Large Language Models [95.09157454599605]
大規模言語モデル(LLM)はますます強力になってきていますが、それでも顕著ですが微妙な弱点があります。
従来のベンチマークアプローチでは、特定のモデルの欠陥を徹底的に特定することはできない。
さまざまなタスクにまたがるLLMの弱点を自動的に露呈する統合フレームワークであるAutoDetectを導入する。
論文 参考訳(メタデータ) (2024-06-24T15:16:45Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。