論文の概要: Adversarial Machine Learning Attacks on Financial Reporting via Maximum Violated Multi-Objective Attack
- arxiv url: http://arxiv.org/abs/2507.05441v1
- Date: Mon, 07 Jul 2025 19:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.323029
- Title: Adversarial Machine Learning Attacks on Financial Reporting via Maximum Violated Multi-Objective Attack
- Title(参考訳): 最大暴力的多目的攻撃による財務報告における敵対的機械学習攻撃
- Authors: Edward Raff, Karen Kukla, Michel Benaroch, Joseph Comprix,
- Abstract要約: 悪質な俳優は、主に苦しむ企業であり、彼らの苦悩を隠蔽し、個人の利益を導き出すために財務報告を操作したいというインセンティブと欲求を持っている。
既存の攻撃方法は、攻撃者が成功するためにはどちらも満足しなければならない反相関的な目的のために、このデータでは機能しない。
我々は,攻撃者の探索方向に応じた最大暴力的多目的攻撃(MVMO)を導入する。
- 参考スコア(独自算出の注目度): 40.37525489847212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bad actors, primarily distressed firms, have the incentive and desire to manipulate their financial reports to hide their distress and derive personal gains. As attackers, these firms are motivated by potentially millions of dollars and the availability of many publicly disclosed and used financial modeling frameworks. Existing attack methods do not work on this data due to anti-correlated objectives that must both be satisfied for the attacker to succeed. We introduce Maximum Violated Multi-Objective (MVMO) attacks that adapt the attacker's search direction to find $20\times$ more satisfying attacks compared to standard attacks. The result is that in $\approx50\%$ of cases, a company could inflate their earnings by 100-200%, while simultaneously reducing their fraud scores by 15%. By working with lawyers and professional accountants, we ensure our threat model is realistic to how such frauds are performed in practice.
- Abstract(参考訳): 悪質な俳優は、主に苦しむ企業であり、彼らの苦悩を隠蔽し、個人の利益を導き出すために財務報告を操作するインセンティブと欲求を持っている。
攻撃者として、これらの企業は、潜在的に数百万ドルと、公開されている多くの金融モデリングフレームワークが利用可能であることによって動機づけられている。
既存の攻撃方法は、攻撃者が成功するためにはどちらも満足しなければならない反相関的な目的のために、このデータでは機能しない。
我々は,攻撃者の探索方向に応じた最大暴力多目的攻撃(MVMO)を導入する。
その結果、$$\approx50\%のケースでは、企業は収益を100-200%増やし、同時に詐欺のスコアを15%下げることができた。
弁護士や会計士と協力することで、このような詐欺が実際にどのように行われているかに対して、脅威モデルが現実的であることを保証します。
関連論文リスト
- LLMs unlock new paths to monetizing exploits [85.60539289753564]
大規模言語モデル(LLM)はすぐにサイバー攻撃の経済性を変えるだろう。
LLMは、敵がユーザーごとにカスタマイズされた攻撃を起動することを可能にする。
論文 参考訳(メタデータ) (2025-05-16T17:05:25Z) - Following Devils' Footprint: Towards Real-time Detection of Price Manipulation Attacks [10.782846331348379]
価格操作攻撃は、分散金融(DeFi)アプリケーションにおける悪名高い脅威の1つだ。
本研究では,攻撃前の価格操作攻撃を積極的に識別する新しい手法SMARTCATを提案する。
SMARTCATは91.6%のリコールと100%の精度で既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-02-06T02:11:24Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Efficient Adversarial Attacks on Online Multi-agent Reinforcement
Learning [45.408568528354216]
対人攻撃がマルチエージェント強化学習(MARL)に及ぼす影響について検討する。
検討された設定では、エージェントがそれらを受け取る前に報酬を変更したり、環境がそれを受け取る前にアクションを操作することができる攻撃者がいる。
この混合攻撃戦略は,攻撃者が基礎となる環境やエージェントのアルゴリズムに関する事前情報を持っていなくても,MARLエージェントを効果的に攻撃することができることを示す。
論文 参考訳(メタデータ) (2023-07-15T00:38:55Z) - Rethinking Adversarial Policies: A Generalized Attack Formulation and
Provable Defense in RL [46.32591437241358]
本稿では、訓練された被害者エージェントが他のエージェントを制御する攻撃者によって悪用されるマルチエージェント設定について考察する。
以前のモデルでは、攻撃者が$alpha$に対する部分的な制御しか持たない可能性や、攻撃が容易に検出可能な"異常"な振る舞いを生じさせる可能性を考慮していない。
我々は、敵がエージェントをどの程度制御できるかをモデル化する柔軟性を持つ汎用攻撃フレームワークを導入する。
我々は、時間的分離を伴う敵の訓練を通じて、最も堅牢な被害者政策への収束を証明可能な効率のよい防御を提供する。
論文 参考訳(メタデータ) (2023-05-27T02:54:07Z) - Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning [102.05872020792603]
我々は,他のクライアントの行動を含む,連合学習パイプライン全体の予測と説明を行う攻撃を提案する。
この新たな攻撃は、ランダムにサンプリングされたラウンドのごく一部にアタッカーが貢献する現実的なシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:59:38Z) - A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools
Stock Prediction [100.9772316028191]
本稿では,3つのストック予測犠牲者モデルを騙すために,様々な攻撃構成を試行する。
以上の結果から,提案手法が一貫した成功率を達成し,取引シミュレーションにおいて大きな損失をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-01T05:12:22Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。