論文の概要: No More Hidden Pitfalls? Exposing Smart Contract Bad Practices with LLM-Powered Hybrid Analysis
- arxiv url: http://arxiv.org/abs/2512.15179v1
- Date: Wed, 17 Dec 2025 08:21:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.898038
- Title: No More Hidden Pitfalls? Exposing Smart Contract Bad Practices with LLM-Powered Hybrid Analysis
- Title(参考訳): 隠れた落とし穴はもうない : LLMによるハイブリッド分析によるスマートコントラクトの悪行の露呈
- Authors: Xiaoqi Li, Zongwei Li, Wenkai Li, Yuqing Zhang, Xin Wang,
- Abstract要約: スマートコントラクトの悪いプラクティスは、セキュリティ問題に直接結びつくのではなく、問題に遭遇するリスクを高めます。
本稿では、スマートコントラクトにおける悪い実践に関する最初の体系的な研究を紹介し、47以上の特定の問題について考察する。
2つの方法論的革新を特徴とするLCMフレームワークであるSCALMを提案する。
- 参考スコア(独自算出の注目度): 11.547666047521764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the Ethereum platform continues to mature and gain widespread usage, it is crucial to maintain high standards of smart contract writing practices. While bad practices in smart contracts may not directly lead to security issues, they elevate the risk of encountering problems. Therefore, to understand and avoid these bad practices, this paper introduces the first systematic study of bad practices in smart contracts, delving into over 47 specific issues. Specifically, we propose SCALM, an LLM-powered framework featuring two methodological innovations: (1) A hybrid architecture that combines context-aware function-level slicing with knowledge-enhanced semantic reasoning via extensible vectorized pattern matching. (2) A multi-layer reasoning verification system connects low-level code patterns with high-level security principles through syntax, design patterns, and architecture analysis. Our extensive experiments using multiple LLMs and datasets have shown that SCALM outperforms existing tools in detecting bad practices in smart contracts.
- Abstract(参考訳): Ethereumプラットフォームは成熟を続け、広く使われるようになったため、スマートコントラクト記述プラクティスの高度な標準を維持することが不可欠である。
スマートコントラクトの悪いプラクティスはセキュリティ問題に直接結びつくものではないかもしれないが、問題に遭遇するリスクを高める。
そこで本研究では,これらの悪行を理解して回避するために,47以上の特定の問題を掘り下げる,スマートコントラクトにおける悪行に関する最初の体系的な研究を紹介する。
具体的には,(1)コンテキスト認識型関数レベルのスライシングと,拡張可能なベクトル化パターンマッチングによる知識強化型セマンティック推論を組み合わせたハイブリッドアーキテクチャであるSCALMを提案する。
2)低レベルのコードパターンと高レベルのセキュリティ原則を,構文,設計パターン,アーキテクチャ解析を通じて結合する多層推論検証システム。
複数のLLMとデータセットを用いた大規模な実験により、SCALMはスマートコントラクトの悪いプラクティスを検出する上で、既存のツールよりも優れています。
関連論文リスト
- Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Generative Large Language Model usage in Smart Contract Vulnerability Detection [8.720242549772154]
本稿では,現在のLCMベースのスマートコントラクト脆弱性検出ツールについて,体系的なレビューを行う。
従来の静的および動的解析ツールであるSlitherとMythrilを比較した。
私たちの分析では、それぞれのパフォーマンスが向上する重要な領域を強調し、これらのツールが有望である一方で、テスト用に利用可能なLLMベースのツールは、従来のツールを置き換える準備ができていないことを示しています。
論文 参考訳(メタデータ) (2025-04-07T02:33:40Z) - SolBench: A Dataset and Benchmark for Evaluating Functional Correctness in Solidity Code Completion and Repair [51.0686873716938]
コード補完モデルによって生成されたSolidityスマートコントラクトの機能的正しさを評価するベンチマークであるSolBenchを紹介する。
本稿では,スマートコントラクトの機能的正当性を検証するための検索拡張コード修復フレームワークを提案する。
その結果、コード修復と検索技術は、計算コストを削減しつつ、スマートコントラクト完了の正しさを効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-03-03T01:55:20Z) - SCALM: Detecting Bad Practices in Smart Contracts Through LLMs [5.195028659581491]
本稿では,35以上の特定の課題を掘り下げ,スマートコントラクトにおける悪い実践に関する最初の体系的な研究を紹介する。
具体的には,大規模言語モデル (LLM) ベースのフレームワーク SCALM を提案する。
Step-Back PromptingとRetrieval-Augmented Generation (RAG)を組み合わせて、さまざまな悪いプラクティスを効果的に識別し、対処する。
論文 参考訳(メタデータ) (2025-02-04T15:15:13Z) - Leveraging Large Language Models and Machine Learning for Smart Contract Vulnerability Detection [0.0]
我々は、モデル性能を比較するために、機械学習アルゴリズムを訓練、テストし、タイプに応じてスマートコントラクトコードを分類する。
我々の研究は、機械学習と大規模言語モデルを組み合わせて、さまざまなスマートコントラクトの脆弱性を検出するリッチで解釈可能なフレームワークを提供します。
論文 参考訳(メタデータ) (2025-01-04T08:32:53Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [92.62952504133926]
本研究は,3つの一般的なベンチマーク上で,3つの主要なクローズドソースLLMと6つの人気のあるオープンソースLLMの性能評価を行った。
間違ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析した。
本稿では,自己批判を導入し,LLMが生成したコードに対する批判と修正を可能にする,新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - INDICT: Code Generation with Internal Dialogues of Critiques for Both Security and Helpfulness [110.6921470281479]
INDICTは、安全性と有用性の両方のガイダンスのために、批評家の内的対話で大きな言語モデルを強化する新しいフレームワークである。
内部対話は、安全主導の批評家と役に立つ主導の批評家の二重協調システムである。
提案手法は,安全性と有用性解析の両面において,高度な批判のレベルを提供し,出力コードの品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-23T15:55:07Z) - DeepEdit: Knowledge Editing as Decoding with Constraints [118.78008395850888]
多段階推論における知識の編集は、大規模言語モデル(LLM)の知識編集(KE)において大きな課題となっている。
我々は、深度優先探索により新しい知識を持つコヒーレント推論チェーンを生成するLLMの能力を高める新しいKEフレームワークDEEPEDITを提案する。
DEEPEDITに加えて, MQUAKE-2002 と MQUAKE-HARD という2つの新しい KE ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-19T03:48:27Z) - An Empirical Study of AI-based Smart Contract Creation [4.801455786801489]
スマートコントラクト生成のためのChatGPTやGoogle Palm2のような大規模言語モデル(LLM)は、AIペアプログラマとして初めて確立されたインスタンスであるようだ。
本研究の目的は,LLMがスマートコントラクトに対して提供する生成コードの品質を評価することである。
論文 参考訳(メタデータ) (2023-08-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。