論文の概要: Towards Secure Program Partitioning for Smart Contracts with LLM's In-Context Learning
- arxiv url: http://arxiv.org/abs/2502.14215v1
- Date: Thu, 20 Feb 2025 03:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:30:03.561720
- Title: Towards Secure Program Partitioning for Smart Contracts with LLM's In-Context Learning
- Title(参考訳): LLMのインコンテキスト学習によるスマートコントラクトのためのセキュアプログラム分割に向けて
- Authors: Ye Liu, Yuqing Niu, Chengyan Ma, Ruidong Han, Wei Ma, Yi Li, Debin Gao, David Lo,
- Abstract要約: スマートコントラクトは、機密情報の漏洩による攻撃の操作に非常に影響を受けやすい。
静的解析と大規模言語モデルの文脈内学習機能を組み合わせた最初のLCM駆動型アプローチであるPartitionGPTを提案する。
我々は、9つの現実世界の操作攻撃についてPartitionGPTを評価し、合計で2500万ドルを損失した。
- 参考スコア(独自算出の注目度): 20.539980206615105
- License:
- Abstract: Smart contracts are highly susceptible to manipulation attacks due to the leakage of sensitive information. Addressing manipulation vulnerabilities is particularly challenging because they stem from inherent data confidentiality issues rather than straightforward implementation bugs. To tackle this by preventing sensitive information leakage, we present PartitionGPT, the first LLM-driven approach that combines static analysis with the in-context learning capabilities of large language models (LLMs) to partition smart contracts into privileged and normal codebases, guided by a few annotated sensitive data variables. We evaluated PartitionGPT on 18 annotated smart contracts containing 99 sensitive functions. The results demonstrate that PartitionGPT successfully generates compilable, and verified partitions for 78% of the sensitive functions while reducing approximately 30% code compared to function-level partitioning approach. Furthermore, we evaluated PartitionGPT on nine real-world manipulation attacks that lead to a total loss of 25 million dollars, PartitionGPT effectively prevents eight cases, highlighting its potential for broad applicability and the necessity for secure program partitioning during smart contract development to diminish manipulation vulnerabilities.
- Abstract(参考訳): スマートコントラクトは、機密情報の漏洩による攻撃の操作に非常に影響を受けやすい。
操作上の脆弱性に対処することは、単純な実装バグではなく、本質的にデータ機密性の問題に起因するため、特に難しい。
センシティブな情報漏洩を防止してこの問題に対処するため,LLMによる最初のアプローチであるPartitionGPTを提案する。これは,静的解析と大規模言語モデル(LLM)のコンテキスト内学習機能を組み合わせて,いくつかの注釈付き機密データ変数によってガイドされる特権付きおよび通常のコードベースにスマートコントラクトを分割する手法である。
99の感度関数を含む18のアノテートスマートコントラクトに対するPartitionGPTの評価を行った。
その結果、PartitionGPTは、関数レベルのパーティショニングアプローチと比較して約30%のコードを削減するとともに、センシティブな関数の78%に対して、コンパイル可能で検証済みのパーティショニングを生成することができた。
さらに,パーティションGPTは,9件のリアルタイムな操作攻撃で2500万ドルを損失し,パーティションGPTは8件のケースを効果的に防止し,スマートコントラクト開発においてプログラムパーティショニングを安全に行う必要性を強調した。
関連論文リスト
- Smart-LLaMA: Two-Stage Post-Training of Large Language Models for Smart Contract Vulnerability Detection and Explanation [21.39496709865097]
既存のスマートコントラクトの脆弱性検出方法は3つの大きな問題に直面している。
データセットの十分な品質、詳細な説明と正確な脆弱性位置の欠如。
LLaMA言語モデルに基づく高度な検出手法であるSmart-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:49:42Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Improving Smart Contract Security with Contrastive Learning-based Vulnerability Detection [8.121484960948303]
スマートコントラクト脆弱性に対するコントラスト学習強化型自動認識手法であるClearを提案する。
特にClearは、契約間のきめ細かい相関情報をキャプチャするために、対照的な学習(CL)モデルを採用している。
その結果,既存のディープラーニング手法よりも9.73%-39.99%高いF1スコアが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-27T09:13:25Z) - Efficiently Detecting Reentrancy Vulnerabilities in Complex Smart Contracts [35.26195628798847]
既存の脆弱性検出ツールは、複雑なコントラクトにおける脆弱性の効率性や検出成功率の面では不十分である。
SliSEは、複雑なコントラクトに対するReentrancy脆弱性を検出する堅牢で効率的な方法を提供する。
論文 参考訳(メタデータ) (2024-03-17T16:08:30Z) - Evaluation of ChatGPT's Smart Contract Auditing Capabilities Based on
Chain of Thought [8.04987973069845]
本研究は,GPT-4モデルを用いたスマートコントラクトセキュリティ監査の強化の可能性を検討する。
732の脆弱性を含むSolidiFI-benchmark脆弱性ライブラリから、35のスマートコントラクトのデータセットを使用しました。
GPT-4は96.6%の精度でスマートコントラクトの脆弱性を検出できたが、リコールは37.8%、F1スコアは41.1%であった。
論文 参考訳(メタデータ) (2024-02-19T10:33:29Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - GPTScan: Detecting Logic Vulnerabilities in Smart Contracts by Combining GPT with Program Analysis [26.081673382969615]
本稿では,GPTと静的解析を組み合わせたGPTScanを提案する。
各ロジックの脆弱性タイプをシナリオとプロパティに分割することで、GPTScanは候補の脆弱性とGPTをマッチさせる。
人間の監査官が見逃した9つの新たな脆弱性を含む70%以上のリコールで、地上の真実的ロジックの脆弱性を効果的に検出する。
論文 参考訳(メタデータ) (2023-08-07T05:48:53Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。