論文の概要: NATLM: Detecting Defects in NFT Smart Contracts Leveraging LLM
- arxiv url: http://arxiv.org/abs/2508.01351v1
- Date: Sat, 02 Aug 2025 12:56:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 14:19:27.617791
- Title: NATLM: Detecting Defects in NFT Smart Contracts Leveraging LLM
- Title(参考訳): NATLM: LLMを活用したNFTスマートコントラクトの欠陥検出
- Authors: Yuanzheng Niu, Xiaoqi Li, Wenkai Li,
- Abstract要約: NFTスマートコントラクトの潜在的な欠陥を検出するために,NATLMというフレームワークを提案する。
このフレームワークは、NFTスマートコントラクトの4つの一般的な脆弱性を効果的に識別する。
実験の結果、NATLMは8,672個のNFTスマートコントラクトを分析し、全体の精度は87.72%、リコールは89.58%、F1スコアは88.94%に達した。
- 参考スコア(独自算出の注目度): 0.8225825738565354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security issues are becoming increasingly significant with the rapid evolution of Non-fungible Tokens (NFTs). As NFTs are traded as digital assets, they have emerged as prime targets for cyber attackers. In the development of NFT smart contracts, there may exist undiscovered defects that could lead to substantial financial losses if exploited. To tackle this issue, this paper presents a framework called NATLM(NFT Assistant LLM), designed to detect potential defects in NFT smart contracts. The framework effectively identifies four common types of vulnerabilities in NFT smart contracts: ERC-721 Reentrancy, Public Burn, Risky Mutable Proxy, and Unlimited Minting. Relying exclusively on large language models (LLMs) for defect detection can lead to a high false-positive rate. To enhance detection performance, NATLM integrates static analysis with LLMs, specifically Gemini Pro 1.5. Initially, NATLM employs static analysis to extract structural, syntactic, and execution flow information from the code, represented through Abstract Syntax Trees (AST) and Control Flow Graphs (CFG). These extracted features are then combined with vectors of known defect examples to create a matrix for input into the knowledge base. Subsequently, the feature vectors and code vectors of the analyzed contract are compared with the contents of the knowledge base. Finally, the LLM performs deep semantic analysis to enhance detection capabilities, providing a more comprehensive and accurate identification of potential security issues. Experimental results indicate that NATLM analyzed 8,672 collected NFT smart contracts, achieving an overall precision of 87.72%, a recall of 89.58%, and an F1 score of 88.94%. The results outperform other baseline experiments, successfully identifying four common types of defects.
- Abstract(参考訳): セキュリティ問題は、NFT(Non-fungible Tokens)の急速な進化に伴い、ますます重要になっている。
NFTはデジタル資産として取引されているため、サイバー攻撃の標的として浮上している。
NFTスマートコントラクトの開発では、未発見の欠陥が存在し、悪用された場合、かなりの損失をもたらす可能性がある。
そこで本研究では,NFTスマートコントラクトの潜在的な欠陥を検出するために,NATLM(NFT Assistant LLM)というフレームワークを提案する。
このフレームワークは、NFTスマートコントラクトの4つの一般的な脆弱性を効果的に識別する。
欠陥検出のために大きな言語モデル(LLM)にのみ依存すると、偽陽性率が高くなる可能性がある。
検出性能を向上させるため、NATLMは静的解析をLLM、特にGemini Pro 1.5と統合している。
当初、NATLMは静的解析を使用して、抽象構文木(AST)と制御フローグラフ(CFG)で表されるコードから構造、構文、実行フロー情報を抽出した。
これらの特徴を既知の欠陥例のベクトルと組み合わせて、知識ベースへの入力のための行列を生成する。
その後、分析された契約の特徴ベクトルとコードベクトルを知識ベースの内容と比較する。
最後に、LLMは検出機能を強化するために深いセマンティック分析を行い、潜在的なセキュリティ問題のより包括的で正確な識別を可能にする。
実験の結果、NATLMは8,672個のNFTスマートコントラクトを分析し、全体の精度は87.72%、リコールは89.58%、F1スコアは88.94%に達した。
結果は、他のベースライン実験よりも優れており、4つの共通の欠陥の特定に成功している。
関連論文リスト
- LLAMA: Multi-Feedback Smart Contract Fuzzing Framework with LLM-Guided Seed Generation [56.84049855266145]
進化的突然変異戦略とハイブリッドテスト技術を統合したマルチフィードバックスマートコントラクトファジリングフレームワーク(LLAMA)を提案する。
LLAMAは、91%の命令カバレッジと90%のブランチカバレッジを達成すると同時に、148の既知の脆弱性のうち132が検出される。
これらの結果は、現実のスマートコントラクトセキュリティテストシナリオにおけるLAMAの有効性、適応性、実用性を強調している。
論文 参考訳(メタデータ) (2025-07-16T09:46:58Z) - Smart-LLaMA-DPO: Reinforced Large Language Model for Explainable Smart Contract Vulnerability Detection [15.694744168599055]
既存の脆弱性検出方法は2つの大きな問題に直面している。
嗜好学習には包括的カバレッジと高品質な説明が欠如している。
大規模言語モデル(LLM)は、スマートコントラクトのセキュリティにおいて、特定の概念を正確に解釈するのに苦労することが多い。
論文 参考訳(メタデータ) (2025-06-23T02:24:07Z) - AI-Based Vulnerability Analysis of NFT Smart Contracts [6.378351117969227]
本研究では,NFTスマートコントラクトの脆弱性を検出するAI駆動型アプローチを提案する。
我々は16,527のパブリックなスマートコントラクトコードを収集し、これらを5つの脆弱性カテゴリに分類した: Risky Mutable Proxy, ERC-721 Reentrancy, Unlimited Minting, Missing Requirements, Public Burn。
ランダムデータ/機能サンプリングとマルチツリー統合によるロバスト性向上のために,ランダムフォレストモデルを実装した。
論文 参考訳(メタデータ) (2025-04-18T08:55:31Z) - MOS: Towards Effective Smart Contract Vulnerability Detection through Mixture-of-Experts Tuning of Large Language Models [16.16186929130931]
スマートコントラクトの脆弱性は、ブロックチェーンシステムに重大なセキュリティリスクをもたらす。
本稿では,大規模言語モデルのミックス・オブ・エキスパート・チューニング(MOE-Tuning)に基づくスマートコントラクト脆弱性検出フレームワークを提案する。
実験の結果、MOSはF1のスコアが6.32%、精度が4.80%の平均的な改善で既存の手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-04-16T16:33:53Z) - Enhancing Smart Contract Vulnerability Detection in DApps Leveraging Fine-Tuned LLM [0.7018579932647147]
分散アプリケーション(DApps)は、スマートコントラクトの脆弱性のため、重大なセキュリティリスクに直面します。
本稿では,Large Language Models (LLM) を利用したスマートコントラクト脆弱性検出手法を提案する。
論文 参考訳(メタデータ) (2025-04-07T12:32:14Z) - Balancing Truthfulness and Informativeness with Uncertainty-Aware Instruction Fine-Tuning [79.48839334040197]
インストラクション微調整(IFT)は、大きな言語モデル(LLM)の知性を高めるが、その真偽を減少させる可能性がある。
本稿では,IFTデータセットにおける不慣れな知識がLLMの真偽にどのように悪影響を及ぼすかを実証的に示す。
この問題に対処するために、新しいIFTパラダイムである$UNIT_cut$と$UNIT_ref$を導入します。
論文 参考訳(メタデータ) (2025-02-17T16:10:30Z) - MMLU-CF: A Contamination-free Multi-task Language Understanding Benchmark [57.999567012489706]
我々は,MMLU-CFと呼ばれる汚染のない,より困難なベンチマークを提案する。
このベンチマークは、意図しないデータ漏洩と悪意のないデータ漏洩の両方を回避することで、LLMの世界の知識に対する理解を再評価する。
GPT-4o は 5 ショットスコア73.4% と 0 ショットスコア71.9% しか達成できない。
論文 参考訳(メタデータ) (2024-12-19T18:58:04Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Combining Fine-Tuning and LLM-based Agents for Intuitive Smart Contract Auditing with Justifications [18.138452572457552]
iAuditは、正当化を伴う直感的なスマートコントラクト監査のためのフレームワークである。
263の実際のスマートコントラクトの脆弱性のデータセットでは、iAuditはF1スコアが91.21%、精度が91.11%に達する。
論文 参考訳(メタデータ) (2024-03-24T09:26:53Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Definition and Detection of Defects in NFT Smart Contracts [34.359991158202796]
NFTスマートコントラクトの欠陥は、NFTエコシステムのセキュリティと信頼性を傷つけるために攻撃者によって悪用される可能性がある。
本稿では,NFTスマートコントラクトに5つの欠陥を導入し,これらの欠陥を検出するためのNFTGuardというツールを提案する。
1,331の契約には5つの欠陥の少なくとも1つが含まれており、ツールによって達成された全体的な精度は92.6%である。
論文 参考訳(メタデータ) (2023-05-25T08:17:05Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。