論文の概要: AuditGPT: Auditing Smart Contracts with ChatGPT
- arxiv url: http://arxiv.org/abs/2404.04306v1
- Date: Fri, 5 Apr 2024 07:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 23:37:10.666604
- Title: AuditGPT: Auditing Smart Contracts with ChatGPT
- Title(参考訳): AuditGPT: ChatGPTによるスマートコントラクトの監査
- Authors: Shihao Xia, Shuai Shao, Mengting He, Tingting Yu, Linhai Song, Yiying Zhang,
- Abstract要約: AuditGPTは、スマートコントラクトに対するERCルールを自動的にかつ包括的に検証するツールである。
418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
- 参考スコア(独自算出の注目度): 8.697080709545352
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To govern smart contracts running on Ethereum, multiple Ethereum Request for Comment (ERC) standards have been developed, each containing a set of rules to guide the behaviors of smart contracts. Violating the ERC rules could cause serious security issues and financial loss, signifying the importance of verifying smart contracts follow ERCs. Today's practices of such verification are to either manually audit each single contract or use expert-developed, limited-scope program-analysis tools, both of which are far from being effective in identifying ERC rule violations. This paper presents a tool named AuditGPT that leverages large language models (LLMs) to automatically and comprehensively verify ERC rules against smart contracts. To build AuditGPT, we first conduct an empirical study on 222 ERC rules specified in four popular ERCs to understand their content, their security impacts, their specification in natural language, and their implementation in Solidity. Guided by the study, we construct AuditGPT by separating the large, complex auditing process into small, manageable tasks and design prompts specialized for each ERC rule type to enhance LLMs' auditing performance. In the evaluation, AuditGPT successfully pinpoints 418 ERC rule violations and only reports 18 false positives, showcasing its effectiveness and accuracy. Moreover, AuditGPT beats an auditing service provided by security experts in effectiveness, accuracy, and cost, demonstrating its advancement over state-of-the-art smart-contract auditing practices.
- Abstract(参考訳): Ethereum上で動作するスマートコントラクトを管理するために、複数のEthereum Request for Comment(ERC)標準が開発され、スマートコントラクトの動作をガイドする一連のルールが含まれている。
ERCルールの違反は深刻なセキュリティ問題と財政的損失を引き起こし、ERCに従うスマートコントラクトを検証することの重要性を示している。
このような検証の今日の実践は、個々の契約を手動で監査するか、専門家が開発した限定的なプログラム分析ツールを使用するかで、どちらもERCのルール違反を特定するのに効果的ではない。
本稿では,大規模言語モデル(LLM)を活用してERCルールをスマートコントラクトに対して自動かつ包括的に検証するAuditGPTというツールを提案する。
AuditGPTを構築するために、我々はまず、4つの人気のあるERCで規定されている222のERCルールについて実証的研究を行い、それらの内容、セキュリティへの影響、自然言語での仕様、そしてそれらのソリデーティにおける実装について理解した。
本研究では,大規模で複雑な監査プロセスを小さな管理可能なタスクに分割してAuditGPTを構築し,各ERCルールタイプに特化した設計プロンプトを作成し,LLMの監査性能を向上させる。
評価において、AuditGPTは、418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
さらにAuditGPTは、セキュリティ専門家が提供する監査サービスを、有効性、正確性、コストで打ち負かし、最先端のスマートコントラクト監査プラクティスに対する進歩を実証している。
関連論文リスト
- SC-Bench: A Large-Scale Dataset for Smart Contract Auditing [5.787866021952808]
自動スマートコントラクト監査研究のための最初のデータセットであるSC-Benchを紹介する。
SC-Benchは5,377の現実世界のスマートコントラクトと15,975の標準に違反している。
GPT-4 を用いて SC-Bench の評価を行った。
以上の結果から,GPT-4は0.9%の違反しか検出できず,22.9%の違反を検出できた。
論文 参考訳(メタデータ) (2024-10-08T16:23:50Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - RegNLP in Action: Facilitating Compliance Through Automated Information Retrieval and Answer Generation [51.998738311700095]
その長さ、複雑さ、頻繁な更新を特徴とする規制文書は解釈が難しい。
RegNLPは、規制規則と義務のアクセスと解釈を簡素化することを目的とした、多分野のサブフィールドである。
ObliQAデータセットには、Abu Dhabi Global Markets (ADGM) からの27,869の質問が含まれている。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - A Context-Driven Approach for Co-Auditing Smart Contracts with The Support of GPT-4 code interpreter [15.28361088402754]
本稿では,スマートコントラクト・コオーディティングのためのコンテキスト駆動型プロンプト手法を提案する。
このアプローチでは、コンテキストスコープと拡張のための3つのテクニックを採用し、長いコードを自己完結したコードセグメントに分割するコードスコープを包含する。
本法では,脆弱な機能に対する検出率は96%であり,ネイティブプロンプト法では53%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-26T05:14:35Z) - Evaluation of ChatGPT's Smart Contract Auditing Capabilities Based on
Chain of Thought [8.04987973069845]
本研究は,GPT-4モデルを用いたスマートコントラクトセキュリティ監査の強化の可能性を検討する。
732の脆弱性を含むSolidiFI-benchmark脆弱性ライブラリから、35のスマートコントラクトのデータセットを使用しました。
GPT-4は96.6%の精度でスマートコントラクトの脆弱性を検出できたが、リコールは37.8%、F1スコアは41.1%であった。
論文 参考訳(メタデータ) (2024-02-19T10:33:29Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。