論文の概要: SCALM: Detecting Bad Practices in Smart Contracts Through LLMs
- arxiv url: http://arxiv.org/abs/2502.04347v1
- Date: Tue, 04 Feb 2025 15:15:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 18:29:32.81015
- Title: SCALM: Detecting Bad Practices in Smart Contracts Through LLMs
- Title(参考訳): SCALM: LLMを通じてスマートコントラクトの悪い実践を検出する
- Authors: Zongwei Li, Xiaoqi Li, Wenkai Li, Xin Wang,
- Abstract要約: 本稿では,35以上の特定の課題を掘り下げ,スマートコントラクトにおける悪い実践に関する最初の体系的な研究を紹介する。
具体的には,大規模言語モデル (LLM) ベースのフレームワーク SCALM を提案する。
Step-Back PromptingとRetrieval-Augmented Generation (RAG)を組み合わせて、さまざまな悪いプラクティスを効果的に識別し、対処する。
- 参考スコア(独自算出の注目度): 5.195028659581491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the Ethereum platform continues to mature and gain widespread usage, it is crucial to maintain high standards of smart contract writing practices. While bad practices in smart contracts may not directly lead to security issues, they do elevate the risk of encountering problems. Therefore, to understand and avoid these bad practices, this paper introduces the first systematic study of bad practices in smart contracts, delving into over 35 specific issues. Specifically, we propose a large language models (LLMs)-based framework, SCALM. It combines Step-Back Prompting and Retrieval-Augmented Generation (RAG) to identify and address various bad practices effectively. Our extensive experiments using multiple LLMs and datasets have shown that SCALM outperforms existing tools in detecting bad practices in smart contracts.
- Abstract(参考訳): Ethereumプラットフォームは成熟を続け、広く使われるようになったため、スマートコントラクト記述プラクティスの高度な標準を維持することが不可欠である。
スマートコントラクトの悪いプラクティスはセキュリティ問題に直接結びつくものではないかもしれないが、問題に遭遇するリスクを高める。
そこで本研究では,これらの悪行を理解して回避するために,35以上の特定の課題を掘り下げる,スマートコントラクトにおける悪行に関する最初の体系的な研究を紹介する。
具体的には,大規模言語モデル (LLM) ベースのフレームワーク SCALM を提案する。
Step-Back PromptingとRetrieval-Augmented Generation (RAG)を組み合わせて、さまざまな悪いプラクティスを効果的に識別し、対処する。
複数のLLMとデータセットを用いた大規模な実験により、SCALMはスマートコントラクトの悪いプラクティスを検出する上で、既存のツールよりも優れています。
関連論文リスト
- Generative Large Language Model usage in Smart Contract Vulnerability Detection [8.720242549772154]
本稿では,現在のLCMベースのスマートコントラクト脆弱性検出ツールについて,体系的なレビューを行う。
従来の静的および動的解析ツールであるSlitherとMythrilを比較した。
私たちの分析では、それぞれのパフォーマンスが向上する重要な領域を強調し、これらのツールが有望である一方で、テスト用に利用可能なLLMベースのツールは、従来のツールを置き換える準備ができていないことを示しています。
論文 参考訳(メタデータ) (2025-04-07T02:33:40Z) - SolBench: A Dataset and Benchmark for Evaluating Functional Correctness in Solidity Code Completion and Repair [51.0686873716938]
コード補完モデルによって生成されたSolidityスマートコントラクトの機能的正しさを評価するベンチマークであるSolBenchを紹介する。
本稿では,スマートコントラクトの機能的正当性を検証するための検索拡張コード修復フレームワークを提案する。
その結果、コード修復と検索技術は、計算コストを削減しつつ、スマートコントラクト完了の正しさを効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-03-03T01:55:20Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Efficacy of Various Large Language Models in Generating Smart Contracts [0.0]
本研究では,Immutable上のSolidityスマートコントラクト作成におけるコード生成型大規模言語モデルの適用性について分析する。
我々はまた、新しい戦略を促すことによって、スマートコントラクトを生成する新しい方法を発見した。
論文 参考訳(メタデータ) (2024-06-28T17:31:47Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors [64.9938658716425]
安全でないユーザリクエストを認識して拒否する、大規模な言語モデル(LLM)の既存の評価は、3つの制限に直面している。
まず、既存の手法では、安全でないトピックの粗い粒度を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
第3に、既存の評価は大きなLCMに頼っているため、コストがかかる可能性がある。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - Vulnerabilities of smart contracts and mitigation schemes: A Comprehensive Survey [0.6554326244334866]
本稿では,開発者がセキュアなスマート技術を開発するのを支援することを目的とした,文献レビューと実験報告を組み合わせる。
頻繁な脆弱性とそれに対応する緩和ソリューションのリストを提供する。
サンプルのスマートコントラクト上でそれらを実行し、テストすることで、コミュニティが最も広く使用しているツールを評価します。
論文 参考訳(メタデータ) (2024-03-28T19:36:53Z) - PrAIoritize: Automated Early Prediction and Prioritization of Vulnerabilities in Smart Contracts [1.081463830315253]
スマートコントラクトは、未公表の脆弱性とコードの弱点のために、数多くのセキュリティ脅威を引き起こす。
スマートコントラクトのセキュリティには、効率的な優先順位付けが不可欠です。
我々の研究は、重要なコードの弱点を優先順位付けし予測するための自動アプローチPrAIoritizeを提供することを目的としています。
論文 参考訳(メタデータ) (2023-08-21T23:30:39Z) - An Empirical Study of AI-based Smart Contract Creation [4.801455786801489]
スマートコントラクト生成のためのChatGPTやGoogle Palm2のような大規模言語モデル(LLM)は、AIペアプログラマとして初めて確立されたインスタンスであるようだ。
本研究の目的は,LLMがスマートコントラクトに対して提供する生成コードの品質を評価することである。
論文 参考訳(メタデータ) (2023-08-05T21:38:57Z) - SelfCheck: Using LLMs to Zero-Shot Check Their Own Step-by-Step
Reasoning [55.76083560152823]
SelfCheckは、ステップバイステップの推論でエラーを認識する汎用的なゼロショット検証スキーマである。
我々は,3つのデータセット(GSM8K,MathQA,MATH)上でSelfCheckをテストし,エラーの認識に成功し,最終的な回答精度が向上することを確認した。
論文 参考訳(メタデータ) (2023-08-01T10:31:36Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。