論文の概要: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- arxiv url: http://arxiv.org/abs/2401.07261v2
- Date: Fri, 2 Feb 2024 08:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:37:32.930899
- Title: LookAhead: Preventing DeFi Attacks via Unveiling Adversarial Contracts
- Title(参考訳): LookAhead: 敵の契約を解除してDeFi攻撃を防ぐ
- Authors: Shoupeng Ren, Tianyu Tu, Jian Liu, Di Wu, Kui Ren,
- Abstract要約: 本稿では,DeFi攻撃を検出する新たな方向,すなわち,相手の取引ではなく相手の契約を検出することを提案する。
例えば、匿名のファンドソース、クローズドソース、頻繁なトークン関連関数呼び出しなどである。
269の敵契約と13,000の良心契約から抽出された特徴からなるデータセットを構築します。
- 参考スコア(独自算出の注目度): 14.203351200435575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeFi incidents stemming from various smart contract vulnerabilities have culminated in financial damages exceeding 3 billion USD. The attacks causing such incidents commonly commence with the deployment of adversarial contracts, subsequently leveraging these contracts to execute adversarial transactions that exploit vulnerabilities in victim contracts. Existing defense mechanisms leverage heuristic or machine learning algorithms to detect adversarial transactions, but they face significant challenges in detecting private adversarial transactions. Namely, attackers can send adversarial transactions directly to miners, evading visibility within the blockchain network and effectively bypassing the detection. In this paper, we propose a new direction for detecting DeFi attacks, i.e., detecting adversarial contracts instead of adversarial transactions, allowing us to proactively identify potential attack intentions, even if they employ private adversarial transactions. Specifically, we observe that most adversarial contracts follow a similar pattern, e.g., anonymous fund source, closed-source, frequent token-related function calls. Based on this observation, we build a machine learning classifier that can effectively distinguish adversarial contracts from benign ones. We build a dataset consists of features extracted from 269 adversarial contracts and 13,000 benign contracts. Based on this dataset, we evaluate different classifiers, the results of which show that our method for identifying DeFi adversarial contracts performs exceptionally well. For example, the F1-Score for LightGBM-based classifier is 0.9541, with a remarkably low false positive rate of only 0.15%.
- Abstract(参考訳): さまざまなスマートコントラクトの脆弱性に起因するDeFiのインシデントは、30億米ドルを超える財政的損害に終止符を打った。
このような事件を引き起こした攻撃は、通常、敵の契約の展開から始まり、その後、これらの契約を利用して被害者の契約の脆弱性を悪用する敵の取引を実行する。
既存の防御メカニズムは、ヒューリスティックまたは機械学習アルゴリズムを利用して敵のトランザクションを検出するが、私的な敵のトランザクションを検出する上で大きな課題に直面している。
すなわち、攻撃者は敵のトランザクションを直接マイナーに送信し、ブロックチェーンネットワーク内の可視性を回避し、検出を効果的にバイパスすることができる。
本稿では,デフィ攻撃を検出する新たな方向,すなわち,敵対的取引ではなく敵対的契約を検出することを提案する。
具体的には、ほとんどの競合契約は、匿名のファンドソース、クローズドソース、頻繁なトークン関連関数呼び出しなど、同様のパターンに従うことを観察する。
この観測に基づいて、敵の契約と良性のある契約を効果的に区別できる機械学習分類器を構築する。
269の敵契約と13,000の良心契約から抽出された特徴からなるデータセットを構築します。
このデータセットに基づいて,異なる分類器の評価を行い,その結果から,DeFiの競合契約を識別する手法が極めて良好であることを示す。
例えば、LightGBM ベースの分類器の F1-Score は 0.9541 であり、非常に低い偽陽性率は 0.15% である。
関連論文リスト
- Improving Smart Contract Security with Contrastive Learning-based Vulnerability Detection [8.121484960948303]
スマートコントラクト脆弱性に対するコントラスト学習強化型自動認識手法であるClearを提案する。
特にClearは、契約間のきめ細かい相関情報をキャプチャするために、対照的な学習(CL)モデルを採用している。
その結果,既存のディープラーニング手法よりも9.73%-39.99%高いF1スコアが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-27T09:13:25Z) - Demystifying Invariant Effectiveness for Securing Smart Contracts [8.848934430494088]
本稿では,上位監査会社やセキュリティ専門家が支持する,著名なプロトコルに展開する8つのカテゴリの23種類の不変量について検討した。
我々は、その履歴トランザクションデータに基づいて、所定の契約用にカスタマイズされた新しい不変量を動的に生成するツールTrace2Invを開発した。
以上の結果から,最も有効な不変ガード単独で,ガスオーバーヘッドを最小限に抑えた27種のうち18種をブロックできることが判明した。
論文 参考訳(メタデータ) (2024-04-22T20:59:09Z) - Uncover the Premeditated Attacks: Detecting Exploitable Reentrancy Vulnerabilities by Identifying Attacker Contracts [27.242299425486273]
スマートコントラクトにおける悪名高い脆弱性であるReentrancyは、数百万ドルの損失をもたらしている。
現在のスマートコントラクトの脆弱性検出ツールは、永続的脆弱性を持つコントラクトを識別する上で、高い偽陽性率に悩まされている。
攻撃者の契約を識別することで、再侵入の脆弱性を検出するツールであるBlockWatchdogを提案する。
論文 参考訳(メタデータ) (2024-03-28T03:07:23Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - Securing Blockchain Systems: A Novel Collaborative Learning Framework to Detect Attacks in Transactions and Smart Contracts [26.85360925398753]
本稿では、ブロックチェーントランザクションとスマートコントラクトの攻撃を検出するために設計された、新しい協調学習フレームワークを提案する。
当社のフレームワークは,マシンコードレベルでの複雑な攻撃を含む,さまざまな種類のブロックチェーン攻撃を分類する機能を示している。
我々のフレームワークは、広範囲なシミュレーションや、毎秒2150トランザクションを超えるスループットでリアルタイムな実験を通じて、約94%の精度で検出できる。
論文 参考訳(メタデータ) (2023-08-30T07:17:20Z) - Blockchain Large Language Models [65.7726590159576]
本稿では,異常なブロックチェーントランザクションを検出するための動的,リアルタイムなアプローチを提案する。
提案するツールであるBlockGPTは、ブロックチェーンアクティビティのトレース表現を生成し、大規模な言語モデルをスクラッチからトレーニングして、リアルタイム侵入検出システムとして機能させる。
論文 参考訳(メタデータ) (2023-04-25T11:56:18Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Detecting DeFi Securities Violations from Token Smart Contract Code [0.4263043028086136]
DeFi(Decentralized Finance)は、さまざまなブロックチェーン上のスマートコントラクトを通じて構築および配信される金融製品とサービスのシステムである。
本研究の目的は、トークンのスマートコントラクトコードに基づいて、証券違反の可能性のあるDeFiプロジェクトを特定できるかどうかを明らかにすることである。
論文 参考訳(メタデータ) (2021-12-06T01:44:08Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。