論文の概要: Evaluating the Vulnerability Landscape of LLM-Generated Smart Contracts
- arxiv url: http://arxiv.org/abs/2602.04039v1
- Date: Tue, 03 Feb 2026 22:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.289609
- Title: Evaluating the Vulnerability Landscape of LLM-Generated Smart Contracts
- Title(参考訳): LLMによるスマートコントラクトの脆弱性ランドスケープ評価
- Authors: Hoang Long Do, Nasrin Sohrabi, Muneeb Ul Hassan,
- Abstract要約: 大規模言語モデル(LLM)は、現代のソフトウェア開発ライフサイクルにおいて広く採用されている。
ブロックチェーンの分野では、開発者はスマートコントラクトの生成とメンテナンスにLLMに依存している。
構文的正しさと機能的完全性にもかかわらず、LLM生成のスマートコントラクトは深刻なセキュリティ欠陥をしばしば示している。
- 参考スコア(独自算出の注目度): 1.721876123772139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have been widely adopted in modern software development lifecycles, where they are increasingly used to automate and assist code generation, significantly improving developer productivity and reducing development time. In the blockchain domain, developers increasingly rely on LLMs to generate and maintain smart contracts, the immutable, self-executing components of decentralized applications. Because deployed smart contracts cannot be modified, correctness and security are paramount, particularly in high-stakes domains such as finance and governance. Despite this growing reliance, the security implications of LLM-generated smart contracts remain insufficiently understood. In this work, we conduct a systematic security analysis of Solidity smart contracts generated by state-of-the-art LLMs, including ChatGPT, Gemini, and Sonnet. We evaluate these contracts against a broad set of known smart contract vulnerabilities to assess their suitability for direct deployment in production environments. Our extensive experimental study shows that, despite their syntactic correctness and functional completeness, LLM-generated smart contracts frequently exhibit severe security flaws that could be exploited in real-world settings. We further analyze and categorize these vulnerabilities, identifying recurring weakness patterns across different models. Finally, we discuss practical countermeasures and development guidelines to help mitigate these risks, offering actionable insights for both developers and researchers. Our findings aim to support safe integration of LLMs into smart contract development workflows and to strengthen the overall security of the blockchain ecosystem against future security failures.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成の自動化と支援、開発者の生産性の大幅な向上、開発時間の短縮など、現代のソフトウェア開発ライフサイクルにおいて広く採用されている。
ブロックチェーンのドメインでは、開発者は、分散アプリケーションの不変で自己実行的なコンポーネントであるスマートコントラクトの生成とメンテナンスにLLMに依存するようになっています。
デプロイされたスマートコントラクトは変更できないため、特に金融やガバナンスといった高度な領域において、正確性とセキュリティが最重要である。
この依存度が高まるにもかかわらず、LCMが生成するスマートコントラクトのセキュリティ上の意味はいまだに十分に理解されていない。
本研究では,ChatGPT,Gemini,Sonnetなど,最先端のLLMが生成するSolidityスマートコントラクトのシステマティックセキュリティ解析を行う。
これらの契約を既知のスマートコントラクトの脆弱性に対して評価し、本番環境におけるダイレクトデプロイメントの適合性を評価します。
我々の大規模な実験的研究は、その構文的正しさと機能的完全性にもかかわらず、LLM生成のスマートコントラクトは、現実の環境で悪用される可能性のある深刻なセキュリティ上の欠陥をしばしば示していることを示している。
さらにこれらの脆弱性を分析し、分類し、異なるモデル間で繰り返し発生する弱点パターンを特定します。
最後に、これらのリスクを軽減し、開発者と研究者の両方に実用的な洞察を提供するための実践的な対策と開発ガイドラインについて議論する。
我々の研究は、LLMのスマートコントラクト開発ワークフローへの安全な統合をサポートし、将来のセキュリティ障害に対するブロックチェーンエコシステム全体のセキュリティを強化することを目的としています。
関連論文リスト
- ParaVul: A Parallel Large Language Model and Retrieval-Augmented Framework for Smart Contract Vulnerability Detection [43.41293570032631]
ParaVulは、スマートコントラクト脆弱性検出の信頼性と精度を向上させるための、検索強化フレームワークである。
LLM微調整のためのスパースローランド適応(SLoRA)を開発した。
脆弱性契約データセットを構築し,RAG(Retrieval-Augmented Generation)システムを開発した。
論文 参考訳(メタデータ) (2025-10-20T03:23:41Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Comprehensive Study of Exploitable Patterns in Smart Contracts: From Vulnerability to Defense [1.1138859624936408]
スマートコントラクト内の脆弱性は、個々のアプリケーションのセキュリティを損なうだけでなく、より広範なブロックチェーンエコシステムに重大なリスクをもたらす。
本稿では,スマートコントラクトの重要なセキュリティリスク,特にSolidityで記述され,仮想マシン上で実行されるセキュリティリスクを包括的に分析する。
攻撃シナリオを複製し、効果的な対策を評価することにより、2つの一般的かつ重要なタイプ(冗長性と整数オーバーフロー)に焦点を当てる。
論文 参考訳(メタデータ) (2025-04-30T10:00:36Z) - The Hidden Risks of LLM-Generated Web Application Code: A Security-Centric Evaluation of Code Generation Capabilities in Large Language Models [0.769672852567215]
本稿では,複数のモデルにまたがるLLM生成コードのセキュリティコンプライアンスを評価するために,予め定義されたセキュリティパラメータを用いる。
この分析は、認証機構、セッション管理、入力バリデーション、HTTPセキュリティヘッダに重大な脆弱性を明らかにしている。
我々の発見は、LLM生成コードのセキュアなソフトウェアデプロイメントやレビューのために、人間の専門知識が不可欠であることを示している。
論文 参考訳(メタデータ) (2025-04-29T10:23:11Z) - A Multi-Agent Framework for Automated Vulnerability Detection and Repair in Solidity and Move Smart Contracts [4.3764649156831235]
本稿では,Large Language Models(LLMs)を利用したスマートコントラクトの脆弱性を自動的に検出し,修復する新しいマルチエージェントフレームワークであるSmartifyを提案する。
Smartifyでは、プログラムの概念や言語固有のセキュリティ原則に基づいてコードを分析するために、さまざまな微調整のLLMに取り組んでいる専門エージェントのチームが採用されている。
以上の結果から,Smartifyは従来のLLMを超越し,Llama 3.1のような汎用モデルの能力向上を実現している。
論文 参考訳(メタデータ) (2025-02-22T20:30:47Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - FTSmartAudit: A Knowledge Distillation-Enhanced Framework for Automated Smart Contract Auditing Using Fine-Tuned LLMs [7.398368858401778]
スマートコントラクト監査に最適化された軽量モデルを開発するためのフレームワークであるHKT-SmartAuditを紹介する。
シングルタスク学習戦略は、精度と堅牢性を維持するコンパクトな学生モデルを訓練するために用いられる。
論文 参考訳(メタデータ) (2024-10-17T09:09:09Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。