論文の概要: Unmasking Role-Play Attack Strategies in Exploiting Decentralized Finance (DeFi) Systems
- arxiv url: http://arxiv.org/abs/2310.01081v1
- Date: Mon, 2 Oct 2023 10:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 03:31:41.300724
- Title: Unmasking Role-Play Attack Strategies in Exploiting Decentralized Finance (DeFi) Systems
- Title(参考訳): 分散型ファイナンス(DeFi)システムの爆発におけるロールプレイ攻撃戦略の解明
- Authors: Weilin Li, Zhun Wang, Chenyu Li, Heying Chen, Taiyu Wong, Pengyu Sun, Yufei Yu, Chao Zhang,
- Abstract要約: DeFiシステムを利用するために,攻撃者が複数の役割を同時に果たすロールプレイアタック(Role-Play Attack)と呼ばれる攻撃戦略を導入し,定義する。
この戦略は、それぞれ3.34M (51.4%) と3.76M (12.0%) の利益を上げる可能性がある。
- 参考スコア(独自算出の注目度): 10.634203544691944
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid growth and adoption of decentralized finance (DeFi) systems have been accompanied by various threats, notably those emerging from vulnerabilities in their intricate design. In our work, we introduce and define an attack strategy termed as Role-Play Attack, in which the attacker acts as multiple roles concurrently to exploit the DeFi system and cause substantial financial losses. We provide a formal definition of this strategy and demonstrate its potential impacts by revealing the total loss of \$435.1M caused by 14 historical attacks with applying this pattern. Besides, we mathematically analyzed the attacks with top 2 losses and retrofitted the corresponding attack pattern by concrete execution, indicating that this strategy could increase the potential profit for original attacks by \$3.34M (51.4%) and \$3.76M (12.0%), respectively.
- Abstract(参考訳): 分散金融(DeFi)システムの急速な成長と導入には様々な脅威が伴っている。
本研究では,DeFiシステムを活用するために複数の役割を同時に行うロールプレイアタック(Role-Play Attack)と呼ばれる攻撃戦略を導入し,定義する。
我々はこの戦略を公式に定義し、このパターンを適用した14の歴史的攻撃による435.1Mの総損失を明らかにし、その潜在的影響を実証する。
さらに, 攻撃パターンを具体的実行により再現し, 攻撃効果を3.34M (51.4%) と3.76M (12.0%) に向上させる可能性が示唆された。
関連論文リスト
- Following Devils' Footprint: Towards Real-time Detection of Price Manipulation Attacks [10.782846331348379]
価格操作攻撃は、分散金融(DeFi)アプリケーションにおける悪名高い脅威の1つだ。
本研究では,攻撃前の価格操作攻撃を積極的に識別する新しい手法SMARTCATを提案する。
SMARTCATは91.6%のリコールと100%の精度で既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-02-06T02:11:24Z) - Dynamics of Adversarial Attacks on Large Language Model-Based Search Engines [7.260315265550391]
検索エンジンにおけるランキング操作攻撃のダイナミクスについて検討する。
システムダイナミクスの転換点を同定し、プレイヤーが前方を向いているとき、協調が維持される可能性がより高いことを示す。
私たちの研究は、彼らの脆弱性を理解し緩和するための理論的基盤と実践的な洞察を提供します。
論文 参考訳(メタデータ) (2025-01-01T06:23:26Z) - PGD-Imp: Rethinking and Unleashing Potential of Classic PGD with Dual Strategies for Imperceptible Adversarial Attacks [36.9876568320971]
知覚不能な敵対的攻撃は、最近研究の関心を惹きつけている。
本研究は、PGD(共通攻撃と古典攻撃)の可能性を解き放つための、単純かつ効果的な2つの戦略を提案する。
提案したPGD-Imp攻撃は,非目標シナリオと目標シナリオの両方に対して,認識不能な敵攻撃を実現する。
論文 参考訳(メタデータ) (2024-12-15T12:34:22Z) - Impact of Conflicting Transactions in Blockchain: Detecting and Mitigating Potential Attacks [0.2982610402087727]
ブロックチェーンネットワーク内のトランザクションの競合は、パフォーマンス上の問題を引き起こし、セキュリティ上の脆弱性を導入する。
我々はこれらの攻撃を緩和するための一連の対策を提案する。
私たちの発見は、ブロックチェーンのセキュリティとパフォーマンスを強化するために、競合するトランザクションを積極的に管理することの重要性を強調しています。
論文 参考訳(メタデータ) (2024-07-30T17:16:54Z) - SoK: Attacks on DAOs [24.425004916263354]
分散自律組織(DAO)は、分散型ガバナンスを促進するブロックチェーンベースの組織である。
本稿では,攻撃のタイプに焦点をあて,セキュリティに対する脅威を系統的に分析する。
過去に発生したベクターに対する攻撃、可能なように理論化された攻撃、そして監査において発見され防止された潜在的な攻撃について検討した。
論文 参考訳(メタデータ) (2024-06-21T11:40:11Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools
Stock Prediction [100.9772316028191]
本稿では,3つのストック予測犠牲者モデルを騙すために,様々な攻撃構成を試行する。
以上の結果から,提案手法が一貫した成功率を達成し,取引シミュレーションにおいて大きな損失をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-01T05:12:22Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。