論文の概要: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- arxiv url: http://arxiv.org/abs/2401.07261v4
- Date: Wed, 18 Sep 2024 19:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-20 13:36:42.567464
- Title: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- Title(参考訳): LookAhead: 敵の契約を解除してDeFi攻撃を防ぐ
- Authors: Shoupeng Ren, Lipeng He, Tianyu Tu, Di Wu, Jian Liu, Kui Ren, Chun Chen,
- Abstract要約: 分散型金融(DeFi)インシデントは、30億ドルを超える経済的損害をもたらした。
現在の検出ツールは、攻撃活動を効果的に識別する上で重大な課題に直面している。
本稿では,敵対的契約の特定に焦点をあてた,DeFi攻撃検出のための新たな方向を提案する。
- 参考スコア(独自算出の注目度): 15.071155232677643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized Finance (DeFi) incidents stemming from the exploitation of smart contract vulnerabilities have culminated in financial damages exceeding 3 billion US dollars. Existing defense mechanisms typically focus on detecting and reacting to malicious transactions executed by attackers that target victim contracts. However, with the emergence of private transaction pools where transactions are sent directly to miners without first appearing in public mempools, current detection tools face significant challenges in identifying attack activities effectively. Based on the fact that most attack logic rely on deploying one or more intermediate smart contracts as supporting components to the exploitation of victim contracts, in this paper, we propose a new direction for detecting DeFi attacks that focuses on identifying adversarial contracts instead of adversarial transactions. Our approach allows us to leverage common attack patterns, code semantics and intrinsic characteristics found in malicious smart contracts to build the LookAhead system based on Machine Learning (ML) classifiers and a transformer model that is able to effectively distinguish adversarial contracts from benign ones, and make just-in-time predictions of potential zero-day attacks. Our contributions are three-fold: First, we construct a comprehensive dataset consisting of features extracted and constructed from recent contracts deployed on the Ethereum and BSC blockchains. Secondly, we design a condensed representation of smart contract programs called Pruned Semantic-Control Flow Tokenization (PSCFT) and use it to train a combination of ML models that understand the behaviour of malicious codes based on function calls, control flows and other pattern-conforming features. Lastly, we provide the complete implementation of LookAhead and the evaluation of its performance metrics for detecting adversarial contracts.
- Abstract(参考訳): スマートコントラクトの脆弱性を悪用することに起因する分散型金融(DeFi)インシデントは、30億ドルを超える金銭的損害を極めた。
既存の防御メカニズムは、通常、被害者の契約をターゲットにした攻撃者が実行した悪意のあるトランザクションを検出し、反応することに焦点を当てる。
しかし、最初に公共のメムプールに現れないまま、マイナに直接トランザクションが送信されるプライベートトランザクションプールの出現により、現在の検出ツールは、攻撃活動を効果的に特定する上で重大な課題に直面している。
攻撃ロジックの多くは、被害者契約の活用を支援するコンポーネントとして1つ以上の中間的スマートコントラクトをデプロイすることに依存しているため、本稿では、敵取引ではなく敵契約を特定することに焦点を当てた、DeFi攻撃を検出するための新たな方向を提案する。
このアプローチでは、悪意のあるスマートコントラクトに見られる一般的な攻撃パターン、コードセマンティクス、本質的な特徴を活用して、マシンラーニング(ML)分類器と変換器モデルに基づくLookAheadシステムを構築します。
まず、EthereumとBSCブロックチェーン上にデプロイされた最近のコントラクトから抽出され、構築された機能からなる包括的なデータセットを構築します。
次に、Pruned Semantic-Control Flow Tokenization (PSCFT)と呼ばれるスマートコントラクトプログラムの凝縮表現を設計し、関数呼び出し、制御フロー、その他のパターン変換機能に基づいて悪意あるコードの振る舞いを理解するMLモデルの組み合わせを訓練する。
最後に、LookAheadの完全な実装と、敵の契約を検出するための性能指標の評価について述べる。
関連論文リスト
- Secure Smart Contract with Control Flow Integrity [3.1655211232629563]
スマートコントラクトを確保するために,リアルタイムに制御フローの整合性を実現するフレームワークであるCrossGuardを開発した。
評価の結果,CrossGuardは,契約のデプロイ前に一度だけ設定した場合に,30件の攻撃のうち28件を効果的にブロックすることがわかった。
論文 参考訳(メタデータ) (2025-04-07T21:08:16Z) - Following Devils' Footprint: Towards Real-time Detection of Price Manipulation Attacks [10.782846331348379]
価格操作攻撃は、分散金融(DeFi)アプリケーションにおける悪名高い脅威の1つだ。
本研究では,攻撃前の価格操作攻撃を積極的に識別する新しい手法SMARTCATを提案する。
SMARTCATは91.6%のリコールと100%の精度で既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-02-06T02:11:24Z) - Smart Contract Fuzzing Towards Profitable Vulnerabilities [10.908512696717724]
VERITEは利益中心のスマートコントラクトファジィフレームワークである。
悪質な脆弱性を検出し、悪用された利益を最大化する。
合計で1800万ドル以上を抽出でき、検出と悪用の両方で最先端のファズーであるITYFUZZよりはるかに優れている。
論文 参考訳(メタデータ) (2025-01-15T14:38:18Z) - ML Study of MaliciousTransactions in Ethereum [0.0]
本稿では,悪意のある契約を検出するための2つのアプローチを提案する。
1つはOpcodeを使用し、もう1つはGPT2に依存し、もう1つはSolidityソースとLORA微調整のCodeLlamaを使用している。
論文 参考訳(メタデータ) (2024-08-16T13:50:04Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Soley: Identification and Automated Detection of Logic Vulnerabilities in Ethereum Smart Contracts Using Large Language Models [1.081463830315253]
GitHubのコード変更から抽出された実世界のスマートコントラクトのロジック脆弱性を実証的に調査する。
本稿では,スマートコントラクトにおける論理的脆弱性の自動検出手法であるSoleyを紹介する。
スマートコントラクト開発者が実際のシナリオでこれらの脆弱性に対処するために使用する緩和戦略について検討する。
論文 参考訳(メタデータ) (2024-06-24T00:15:18Z) - Improving Smart Contract Security with Contrastive Learning-based Vulnerability Detection [8.121484960948303]
スマートコントラクト脆弱性に対するコントラスト学習強化型自動認識手法であるClearを提案する。
特にClearは、契約間のきめ細かい相関情報をキャプチャするために、対照的な学習(CL)モデルを採用している。
その結果,既存のディープラーニング手法よりも9.73%-39.99%高いF1スコアが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-27T09:13:25Z) - Uncover the Premeditated Attacks: Detecting Exploitable Reentrancy Vulnerabilities by Identifying Attacker Contracts [27.242299425486273]
スマートコントラクトにおける悪名高い脆弱性であるReentrancyは、数百万ドルの損失をもたらしている。
現在のスマートコントラクトの脆弱性検出ツールは、永続的脆弱性を持つコントラクトを識別する上で、高い偽陽性率に悩まされている。
攻撃者の契約を識別することで、再侵入の脆弱性を検出するツールであるBlockWatchdogを提案する。
論文 参考訳(メタデータ) (2024-03-28T03:07:23Z) - Blockchain Smart Contract Threat Detection Technology Based on Symbolic
Execution [0.0]
永続性の脆弱性は隠蔽され複雑であり、スマートコントラクトに大きな脅威をもたらす。
本稿では,シンボル実行に基づくスマートコントラクト脅威検出技術を提案する。
実験の結果,本手法は検出効率と精度の両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-12-24T03:27:03Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Collaborative Learning Framework to Detect Attacks in Transactions and Smart Contracts [26.70294159598272]
本稿では、ブロックチェーントランザクションとスマートコントラクトの攻撃を検出するために設計された、新しい協調学習フレームワークを提案する。
当社のフレームワークは,マシンコードレベルでの複雑な攻撃を含む,さまざまな種類のブロックチェーン攻撃を分類する機能を示している。
我々のフレームワークは、広範囲なシミュレーションによって約94%の精度を達成し、リアルタイム実験では91%のスループットで毎秒2,150トランザクションを処理している。
論文 参考訳(メタデータ) (2023-08-30T07:17:20Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Blockchain Large Language Models [65.7726590159576]
本稿では,異常なブロックチェーントランザクションを検出するための動的,リアルタイムなアプローチを提案する。
提案するツールであるBlockGPTは、ブロックチェーンアクティビティのトレース表現を生成し、大規模な言語モデルをスクラッチからトレーニングして、リアルタイム侵入検出システムとして機能させる。
論文 参考訳(メタデータ) (2023-04-25T11:56:18Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。