論文の概要: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- arxiv url: http://arxiv.org/abs/2401.07261v6
- Date: Sun, 20 Apr 2025 19:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-22 15:07:01.610589
- Title: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- Title(参考訳): LookAhead: 敵の契約を解除してDeFi攻撃を防ぐ
- Authors: Shoupeng Ren, Lipeng He, Tianyu Tu, Di Wu, Jian Liu, Kui Ren, Chun Chen,
- Abstract要約: DeFi(Decentralized Finance)は、30億ドルを超える損失を計上している。
現在の検出ツールは、攻撃活動を効果的に識別する上で重大な課題に直面している。
敵契約を公開することでDeFi攻撃を検出する新しいフレームワークであるLookAheadを提案する。
- 参考スコア(独自算出の注目度): 15.071155232677643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exploitation of smart contract vulnerabilities in Decentralized Finance (DeFi) has resulted in financial losses exceeding 3 billion US dollars. Existing defense mechanisms primarily focus on detecting and reacting to adversarial transactions executed by attackers that target victim contracts. However, with the emergence of private transaction pools where transactions are sent directly to miners without first appearing in public mempools, current detection tools face significant challenges in identifying attack activities effectively. Based on the fact that most attack logic rely on deploying intermediate smart contracts as supporting components to the exploitation of victim contracts, novel detection methods have been proposed that focus on identifying these adversarial contracts instead of adversarial transactions. However, previous state-of-the-art approaches in this direction have failed to produce results satisfactory enough for real-world deployment. In this paper, we propose LookAhead, a new framework for detecting DeFi attacks via unveiling adversarial contracts. LookAhead leverages common attack patterns, code semantics and intrinsic characteristics found in adversarial smart contracts to train Machine Learning (ML)-based classifiers that can effectively distinguish adversarial contracts from benign ones and make timely predictions of different types of potential attacks. Experiments on our labeled datasets show that LookAhead achieves an F1-score as high as 0.8966, which represents an improvement of over 44.4% compared to the previous state-of-the-art solution, with a False Positive Rate (FPR) at only 0.16%.
- Abstract(参考訳): 分散型金融(DeFi)におけるスマートコントラクトの脆弱性の悪用は、30億ドルを超える損失をもたらした。
既存の防御メカニズムは、主に被害者の契約をターゲットにした攻撃者によって実行される敵のトランザクションを検出し、反応することに焦点を当てている。
しかし、最初に公共のメムプールに現れないまま、マイナに直接トランザクションが送信されるプライベートトランザクションプールの出現により、現在の検出ツールは、攻撃活動を効果的に特定する上で重大な課題に直面している。
攻撃ロジックの多くは、被害者の契約を悪用するためのコンポーネントとして中間的スマートコントラクトをデプロイすることに依存しているため、敵の取引ではなく敵の契約を特定することに焦点を当てた新たな検出方法が提案されている。
しかし、この方向のこれまでの最先端のアプローチでは、実際のデプロイメントに十分な結果が得られなかった。
本稿では,敵対的契約を公開することによって,DeFi攻撃を検出する新しいフレームワークであるLookAheadを提案する。
LookAheadは、敵対的スマートコントラクトに見られる一般的な攻撃パターン、コードセマンティクス、本質的な特徴を活用して、機械学習(ML)ベースの分類器をトレーニングする。
ラベル付きデータセットの実験では、LookAheadのF1スコアは0.8966に達し、従来の最先端ソリューションに比べて44.4%向上し、False Positive Rate(FPR)は0.16%に過ぎなかった。
関連論文リスト
- Secure Smart Contract with Control Flow Integrity [3.1655211232629563]
スマートコントラクトを確保するために,リアルタイムに制御フローの整合性を実現するフレームワークであるCrossGuardを開発した。
評価の結果,CrossGuardは,契約のデプロイ前に一度だけ設定した場合に,30件の攻撃のうち28件を効果的にブロックすることがわかった。
論文 参考訳(メタデータ) (2025-04-07T21:08:16Z) - Following Devils' Footprint: Towards Real-time Detection of Price Manipulation Attacks [10.782846331348379]
価格操作攻撃は、分散金融(DeFi)アプリケーションにおける悪名高い脅威の1つだ。
本研究では,攻撃前の価格操作攻撃を積極的に識別する新しい手法SMARTCATを提案する。
SMARTCATは91.6%のリコールと100%の精度で既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-02-06T02:11:24Z) - Smart Contract Fuzzing Towards Profitable Vulnerabilities [10.908512696717724]
VERITEは利益中心のスマートコントラクトファジィフレームワークである。
悪質な脆弱性を検出し、悪用された利益を最大化する。
合計で1800万ドル以上を抽出でき、検出と悪用の両方で最先端のファズーであるITYFUZZよりはるかに優れている。
論文 参考訳(メタデータ) (2025-01-15T14:38:18Z) - ML Study of MaliciousTransactions in Ethereum [0.0]
本稿では,悪意のある契約を検出するための2つのアプローチを提案する。
1つはOpcodeを使用し、もう1つはGPT2に依存し、もう1つはSolidityソースとLORA微調整のCodeLlamaを使用している。
論文 参考訳(メタデータ) (2024-08-16T13:50:04Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Soley: Identification and Automated Detection of Logic Vulnerabilities in Ethereum Smart Contracts Using Large Language Models [1.081463830315253]
GitHubのコード変更から抽出された実世界のスマートコントラクトのロジック脆弱性を実証的に調査する。
本稿では,スマートコントラクトにおける論理的脆弱性の自動検出手法であるSoleyを紹介する。
スマートコントラクト開発者が実際のシナリオでこれらの脆弱性に対処するために使用する緩和戦略について検討する。
論文 参考訳(メタデータ) (2024-06-24T00:15:18Z) - Improving Smart Contract Security with Contrastive Learning-based Vulnerability Detection [8.121484960948303]
スマートコントラクト脆弱性に対するコントラスト学習強化型自動認識手法であるClearを提案する。
特にClearは、契約間のきめ細かい相関情報をキャプチャするために、対照的な学習(CL)モデルを採用している。
その結果,既存のディープラーニング手法よりも9.73%-39.99%高いF1スコアが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-27T09:13:25Z) - Uncover the Premeditated Attacks: Detecting Exploitable Reentrancy Vulnerabilities by Identifying Attacker Contracts [27.242299425486273]
スマートコントラクトにおける悪名高い脆弱性であるReentrancyは、数百万ドルの損失をもたらしている。
現在のスマートコントラクトの脆弱性検出ツールは、永続的脆弱性を持つコントラクトを識別する上で、高い偽陽性率に悩まされている。
攻撃者の契約を識別することで、再侵入の脆弱性を検出するツールであるBlockWatchdogを提案する。
論文 参考訳(メタデータ) (2024-03-28T03:07:23Z) - Blockchain Smart Contract Threat Detection Technology Based on Symbolic
Execution [0.0]
永続性の脆弱性は隠蔽され複雑であり、スマートコントラクトに大きな脅威をもたらす。
本稿では,シンボル実行に基づくスマートコントラクト脅威検出技術を提案する。
実験の結果,本手法は検出効率と精度の両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-12-24T03:27:03Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Collaborative Learning Framework to Detect Attacks in Transactions and Smart Contracts [26.70294159598272]
本稿では、ブロックチェーントランザクションとスマートコントラクトの攻撃を検出するために設計された、新しい協調学習フレームワークを提案する。
当社のフレームワークは,マシンコードレベルでの複雑な攻撃を含む,さまざまな種類のブロックチェーン攻撃を分類する機能を示している。
我々のフレームワークは、広範囲なシミュレーションによって約94%の精度を達成し、リアルタイム実験では91%のスループットで毎秒2,150トランザクションを処理している。
論文 参考訳(メタデータ) (2023-08-30T07:17:20Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Blockchain Large Language Models [65.7726590159576]
本稿では,異常なブロックチェーントランザクションを検出するための動的,リアルタイムなアプローチを提案する。
提案するツールであるBlockGPTは、ブロックチェーンアクティビティのトレース表現を生成し、大規模な言語モデルをスクラッチからトレーニングして、リアルタイム侵入検出システムとして機能させる。
論文 参考訳(メタデータ) (2023-04-25T11:56:18Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。