論文の概要: AuditGPT: Auditing Smart Contracts with ChatGPT
- arxiv url: http://arxiv.org/abs/2404.04306v1
- Date: Fri, 5 Apr 2024 07:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 23:37:10.666604
- Title: AuditGPT: Auditing Smart Contracts with ChatGPT
- Title(参考訳): AuditGPT: ChatGPTによるスマートコントラクトの監査
- Authors: Shihao Xia, Shuai Shao, Mengting He, Tingting Yu, Linhai Song, Yiying Zhang,
- Abstract要約: AuditGPTは、スマートコントラクトに対するERCルールを自動的にかつ包括的に検証するツールである。
418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
- 参考スコア(独自算出の注目度): 8.697080709545352
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To govern smart contracts running on Ethereum, multiple Ethereum Request for Comment (ERC) standards have been developed, each containing a set of rules to guide the behaviors of smart contracts. Violating the ERC rules could cause serious security issues and financial loss, signifying the importance of verifying smart contracts follow ERCs. Today's practices of such verification are to either manually audit each single contract or use expert-developed, limited-scope program-analysis tools, both of which are far from being effective in identifying ERC rule violations. This paper presents a tool named AuditGPT that leverages large language models (LLMs) to automatically and comprehensively verify ERC rules against smart contracts. To build AuditGPT, we first conduct an empirical study on 222 ERC rules specified in four popular ERCs to understand their content, their security impacts, their specification in natural language, and their implementation in Solidity. Guided by the study, we construct AuditGPT by separating the large, complex auditing process into small, manageable tasks and design prompts specialized for each ERC rule type to enhance LLMs' auditing performance. In the evaluation, AuditGPT successfully pinpoints 418 ERC rule violations and only reports 18 false positives, showcasing its effectiveness and accuracy. Moreover, AuditGPT beats an auditing service provided by security experts in effectiveness, accuracy, and cost, demonstrating its advancement over state-of-the-art smart-contract auditing practices.
- Abstract(参考訳): Ethereum上で動作するスマートコントラクトを管理するために、複数のEthereum Request for Comment(ERC)標準が開発され、スマートコントラクトの動作をガイドする一連のルールが含まれている。
ERCルールの違反は深刻なセキュリティ問題と財政的損失を引き起こし、ERCに従うスマートコントラクトを検証することの重要性を示している。
このような検証の今日の実践は、個々の契約を手動で監査するか、専門家が開発した限定的なプログラム分析ツールを使用するかで、どちらもERCのルール違反を特定するのに効果的ではない。
本稿では,大規模言語モデル(LLM)を活用してERCルールをスマートコントラクトに対して自動かつ包括的に検証するAuditGPTというツールを提案する。
AuditGPTを構築するために、我々はまず、4つの人気のあるERCで規定されている222のERCルールについて実証的研究を行い、それらの内容、セキュリティへの影響、自然言語での仕様、そしてそれらのソリデーティにおける実装について理解した。
本研究では,大規模で複雑な監査プロセスを小さな管理可能なタスクに分割してAuditGPTを構築し,各ERCルールタイプに特化した設計プロンプトを作成し,LLMの監査性能を向上させる。
評価において、AuditGPTは、418のERC規則違反を指摘し、18の偽陽性のみを報告し、その有効性と正確性を示している。
さらにAuditGPTは、セキュリティ専門家が提供する監査サービスを、有効性、正確性、コストで打ち負かし、最先端のスマートコントラクト監査プラクティスに対する進歩を実証している。
関連論文リスト
- Evaluation of ChatGPT's Smart Contract Auditing Capabilities Based on
Chain of Thought [8.04987973069845]
本研究は,GPT-4モデルを用いたスマートコントラクトセキュリティ監査の強化の可能性を検討する。
732の脆弱性を含むSolidiFI-benchmark脆弱性ライブラリから、35のスマートコントラクトのデータセットを使用しました。
GPT-4は96.6%の精度でスマートコントラクトの脆弱性を検出できたが、リコールは37.8%、F1スコアは41.1%であった。
論文 参考訳(メタデータ) (2024-02-19T10:33:29Z) - Auditing Work: Exploring the New York City algorithmic bias audit regime [0.4580134784455941]
地方法144条 (LL 144) は、独立監査官が実施する年次バイアス監査を実施するために、雇用の自動化された雇用決定ツール(AEDT)を使用する雇用者を義務付けている。
本稿では,LL 144の他国におけるアルゴリズム監査の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-12T22:37:15Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
正確性に関する厳密な保証を提供する一方で、効率上の懸念と、それらが絶対的な結論ではなく統計的に提供しているという事実の両方によって広く採用が妨げられている。
これは、証明可能な音のオーディションとしては初めてのものです。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - A Framework for Assurance Audits of Algorithmic Systems [2.367447006657134]
ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Large Language Model-Powered Smart Contract Vulnerability Detection: New
Perspectives [8.524720028421447]
本稿では, GPT-4 のような大規模言語モデル (LLM) を利用する機会, 課題, 潜在的な解決策を体系的に分析する。
高いランダム性でより多くの答えを生成することは、正しい答えを生み出す可能性を大幅に押し上げるが、必然的に偽陽性の数が増加する。
本稿では,GPTLens と呼ばれる,従来の一段階検出を2つの相乗的段階に分割し,生成と識別を行う逆方向のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T12:37:23Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework [90.61139449550383]
FedGTは、フェデレート学習における悪意のあるクライアントを安全なアグリゲーションで識別するためのフレームワークである。
FedGTは、誤検知や誤報の確率が低い悪意のあるクライアントを識別できることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。