論文の概要: AuditGPT: Auditing Smart Contracts with ChatGPT
- arxiv url: http://arxiv.org/abs/2404.04306v1
- Date: Fri, 5 Apr 2024 07:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 23:37:10.666604
- Title: AuditGPT: Auditing Smart Contracts with ChatGPT
- Title(参考訳): AuditGPT: ChatGPTによるスマートコントラクトの監査
- Authors: Shihao Xia, Shuai Shao, Mengting He, Tingting Yu, Linhai Song, Yiying Zhang,
- Abstract要約: AuditGPTは、スマートコントラクトに対するERCルールを自動的にかつ包括的に検証するツールである。
418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
- 参考スコア(独自算出の注目度): 8.697080709545352
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To govern smart contracts running on Ethereum, multiple Ethereum Request for Comment (ERC) standards have been developed, each containing a set of rules to guide the behaviors of smart contracts. Violating the ERC rules could cause serious security issues and financial loss, signifying the importance of verifying smart contracts follow ERCs. Today's practices of such verification are to either manually audit each single contract or use expert-developed, limited-scope program-analysis tools, both of which are far from being effective in identifying ERC rule violations. This paper presents a tool named AuditGPT that leverages large language models (LLMs) to automatically and comprehensively verify ERC rules against smart contracts. To build AuditGPT, we first conduct an empirical study on 222 ERC rules specified in four popular ERCs to understand their content, their security impacts, their specification in natural language, and their implementation in Solidity. Guided by the study, we construct AuditGPT by separating the large, complex auditing process into small, manageable tasks and design prompts specialized for each ERC rule type to enhance LLMs' auditing performance. In the evaluation, AuditGPT successfully pinpoints 418 ERC rule violations and only reports 18 false positives, showcasing its effectiveness and accuracy. Moreover, AuditGPT beats an auditing service provided by security experts in effectiveness, accuracy, and cost, demonstrating its advancement over state-of-the-art smart-contract auditing practices.
- Abstract(参考訳): Ethereum上で動作するスマートコントラクトを管理するために、複数のEthereum Request for Comment(ERC)標準が開発され、スマートコントラクトの動作をガイドする一連のルールが含まれている。
ERCルールの違反は深刻なセキュリティ問題と財政的損失を引き起こし、ERCに従うスマートコントラクトを検証することの重要性を示している。
このような検証の今日の実践は、個々の契約を手動で監査するか、専門家が開発した限定的なプログラム分析ツールを使用するかで、どちらもERCのルール違反を特定するのに効果的ではない。
本稿では,大規模言語モデル(LLM)を活用してERCルールをスマートコントラクトに対して自動かつ包括的に検証するAuditGPTというツールを提案する。
AuditGPTを構築するために、我々はまず、4つの人気のあるERCで規定されている222のERCルールについて実証的研究を行い、それらの内容、セキュリティへの影響、自然言語での仕様、そしてそれらのソリデーティにおける実装について理解した。
本研究では,大規模で複雑な監査プロセスを小さな管理可能なタスクに分割してAuditGPTを構築し,各ERCルールタイプに特化した設計プロンプトを作成し,LLMの監査性能を向上させる。
評価において、AuditGPTは、418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
さらにAuditGPTは、セキュリティ専門家が提供する監査サービスを、有効性、正確性、コストで打ち負かし、最先端のスマートコントラクト監査プラクティスに対する進歩を実証している。
関連論文リスト
- SymGPT: Auditing Smart Contracts via Combining Symbolic Execution with Large Language Models [8.697080709545352]
本稿では,大規模言語モデル(LLM)の自然言語理解と記号実行の形式的保証を組み合わせたSymGPTを紹介する。
我々は、広く使用されている3つのERC標準から132のERCルールを実証研究し、その内容、セキュリティへの影響、自然言語記述について検討する。
次に、形式化されたルールから制約を合成し、違反が発生する可能性のあるシナリオを表現し、シンボリック実行を使用してそれらを検出する。
評価の結果,SymGPTは1,375件を含む4000件の現実契約で5,783件のERCルール違反を特定できた。
論文 参考訳(メタデータ) (2025-02-11T15:34:00Z) - NLP-based Regulatory Compliance -- Using GPT 4.0 to Decode Regulatory Documents [0.0]
本研究は,GPT-4.0の規制要件内での競合を識別する能力を評価する。
精度、リコール、F1スコアなどの測定値を用いて、実験はGPT-4.0が不整合を検出する効果を示す。
論文 参考訳(メタデータ) (2024-12-29T22:14:59Z) - SC-Bench: A Large-Scale Dataset for Smart Contract Auditing [5.787866021952808]
自動スマートコントラクト監査研究のための最初のデータセットであるSC-Benchを紹介する。
SC-Benchは5,377の現実世界のスマートコントラクトと15,975の標準に違反している。
GPT-4 を用いて SC-Bench の評価を行った。
以上の結果から,GPT-4は0.9%の違反しか検出できず,22.9%の違反を検出できた。
論文 参考訳(メタデータ) (2024-10-08T16:23:50Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - A Context-Driven Approach for Co-Auditing Smart Contracts with The Support of GPT-4 code interpreter [15.28361088402754]
本稿では,スマートコントラクト・コオーディティングのためのコンテキスト駆動型プロンプト手法を提案する。
このアプローチでは、コンテキストスコープと拡張のための3つのテクニックを採用し、長いコードを自己完結したコードセグメントに分割するコードスコープを包含する。
本法では,脆弱な機能に対する検出率は96%であり,ネイティブプロンプト法では53%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-26T05:14:35Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors [64.9938658716425]
安全でないユーザリクエストを認識して拒否する、大規模な言語モデル(LLM)の既存の評価は、3つの制限に直面している。
まず、既存の手法では、安全でないトピックの粗い粒度を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
第3に、既存の評価は大きなLCMに頼っているため、コストがかかる可能性がある。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。