論文の概要: SCALM: Detecting Bad Practices in Smart Contracts Through LLMs
- arxiv url: http://arxiv.org/abs/2502.04347v1
- Date: Tue, 04 Feb 2025 15:15:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:58:36.865915
- Title: SCALM: Detecting Bad Practices in Smart Contracts Through LLMs
- Title(参考訳): SCALM: LLMを通じてスマートコントラクトの悪い実践を検出する
- Authors: Zongwei Li, Xiaoqi Li, Wenkai Li, Xin Wang,
- Abstract要約: 本稿では,35以上の特定の課題を掘り下げ,スマートコントラクトにおける悪い実践に関する最初の体系的な研究を紹介する。
具体的には,大規模言語モデル (LLM) ベースのフレームワーク SCALM を提案する。
Step-Back PromptingとRetrieval-Augmented Generation (RAG)を組み合わせて、さまざまな悪いプラクティスを効果的に識別し、対処する。
- 参考スコア(独自算出の注目度): 5.195028659581491
- License:
- Abstract: As the Ethereum platform continues to mature and gain widespread usage, it is crucial to maintain high standards of smart contract writing practices. While bad practices in smart contracts may not directly lead to security issues, they do elevate the risk of encountering problems. Therefore, to understand and avoid these bad practices, this paper introduces the first systematic study of bad practices in smart contracts, delving into over 35 specific issues. Specifically, we propose a large language models (LLMs)-based framework, SCALM. It combines Step-Back Prompting and Retrieval-Augmented Generation (RAG) to identify and address various bad practices effectively. Our extensive experiments using multiple LLMs and datasets have shown that SCALM outperforms existing tools in detecting bad practices in smart contracts.
- Abstract(参考訳): Ethereumプラットフォームは成熟を続け、広く使われるようになったため、スマートコントラクト記述プラクティスの高度な標準を維持することが不可欠である。
スマートコントラクトの悪いプラクティスはセキュリティ問題に直接結びつくものではないかもしれないが、問題に遭遇するリスクを高める。
そこで本研究では,これらの悪行を理解して回避するために,35以上の特定の課題を掘り下げる,スマートコントラクトにおける悪行に関する最初の体系的な研究を紹介する。
具体的には,大規模言語モデル (LLM) ベースのフレームワーク SCALM を提案する。
Step-Back PromptingとRetrieval-Augmented Generation (RAG)を組み合わせて、さまざまな悪いプラクティスを効果的に識別し、対処する。
複数のLLMとデータセットを用いた大規模な実験により、SCALMはスマートコントラクトの悪いプラクティスを検出する上で、既存のツールよりも優れています。
関連論文リスト
- Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Leveraging Large Language Models and Machine Learning for Smart Contract Vulnerability Detection [0.0]
我々は、モデル性能を比較するために、機械学習アルゴリズムを訓練、テストし、タイプに応じてスマートコントラクトコードを分類する。
我々の研究は、機械学習と大規模言語モデルを組み合わせて、さまざまなスマートコントラクトの脆弱性を検出するリッチで解釈可能なフレームワークを提供します。
論文 参考訳(メタデータ) (2025-01-04T08:32:53Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Efficacy of Various Large Language Models in Generating Smart Contracts [0.0]
本研究では,Immutable上のSolidityスマートコントラクト作成におけるコード生成型大規模言語モデルの適用性について分析する。
我々はまた、新しい戦略を促すことによって、スマートコントラクトを生成する新しい方法を発見した。
論文 参考訳(メタデータ) (2024-06-28T17:31:47Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors [64.9938658716425]
安全でないユーザリクエストを認識して拒否する、大規模な言語モデル(LLM)の既存の評価は、3つの制限に直面している。
まず、既存の手法では、安全でないトピックの粗い粒度を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
第3に、既存の評価は大きなLCMに頼っているため、コストがかかる可能性がある。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - Vulnerabilities of smart contracts and mitigation schemes: A Comprehensive Survey [0.6554326244334866]
本稿では,開発者がセキュアなスマート技術を開発するのを支援することを目的とした,文献レビューと実験報告を組み合わせる。
頻繁な脆弱性とそれに対応する緩和ソリューションのリストを提供する。
サンプルのスマートコントラクト上でそれらを実行し、テストすることで、コミュニティが最も広く使用しているツールを評価します。
論文 参考訳(メタデータ) (2024-03-28T19:36:53Z) - PrAIoritize: Automated Early Prediction and Prioritization of Vulnerabilities in Smart Contracts [1.081463830315253]
スマートコントラクトは、未公表の脆弱性とコードの弱点のために、数多くのセキュリティ脅威を引き起こす。
スマートコントラクトのセキュリティには、効率的な優先順位付けが不可欠です。
我々の研究は、重要なコードの弱点を優先順位付けし予測するための自動アプローチPrAIoritizeを提供することを目的としています。
論文 参考訳(メタデータ) (2023-08-21T23:30:39Z) - An Empirical Study of AI-based Smart Contract Creation [4.801455786801489]
スマートコントラクト生成のためのChatGPTやGoogle Palm2のような大規模言語モデル(LLM)は、AIペアプログラマとして初めて確立されたインスタンスであるようだ。
本研究の目的は,LLMがスマートコントラクトに対して提供する生成コードの品質を評価することである。
論文 参考訳(メタデータ) (2023-08-05T21:38:57Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。