論文の概要: FRAUD-RLA: A new reinforcement learning adversarial attack against credit card fraud detection
- arxiv url: http://arxiv.org/abs/2502.02290v1
- Date: Tue, 04 Feb 2025 12:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:41.248173
- Title: FRAUD-RLA: A new reinforcement learning adversarial attack against credit card fraud detection
- Title(参考訳): FRAUD-RLA:クレジットカード不正検出に対する新たな強化学習敵攻撃
- Authors: Daniele Lunghi, Yannick Molinghen, Alkis Simitsis, Tom Lenaerts, Gianluca Bontempi,
- Abstract要約: 敵対的攻撃はデータ駆動システムに重大な脅威をもたらす。
既存の攻撃の限界を示す新しい脅威モデルを提案する。
次に、クレジットカード不正検出のための新たな敵攻撃を設計する。
- 参考スコア(独自算出の注目度): 2.0929781711360675
- License:
- Abstract: Adversarial attacks pose a significant threat to data-driven systems, and researchers have spent considerable resources studying them. Despite its economic relevance, this trend largely overlooked the issue of credit card fraud detection. To address this gap, we propose a new threat model that demonstrates the limitations of existing attacks and highlights the necessity to investigate new approaches. We then design a new adversarial attack for credit card fraud detection, employing reinforcement learning to bypass classifiers. This attack, called FRAUD-RLA, is designed to maximize the attacker's reward by optimizing the exploration-exploitation tradeoff and working with significantly less required knowledge than competitors. Our experiments, conducted on three different heterogeneous datasets and against two fraud detection systems, indicate that FRAUD-RLA is effective, even considering the severe limitations imposed by our threat model.
- Abstract(参考訳): 敵対的攻撃はデータ駆動システムにとって重大な脅威となり、研究者はその研究にかなりのリソースを費やしてきた。
経済的な関係にもかかわらず、この傾向はクレジットカード詐欺検出の問題を大きく見落としていた。
このギャップに対処するため,既存の攻撃の限界を示す新たな脅威モデルを提案し,新たなアプローチを検討する必要性を強調した。
次に、クレジットカード不正検出のための新たな敵攻撃を設計し、強化学習を用いて分類器をバイパスする。
この攻撃はFRAUD-RLAと呼ばれ、探索と探索のトレードオフを最適化し、競合相手よりもはるかに少ない知識で作業することで攻撃者の報酬を最大化するように設計されている。
3つの異種データセットと2つの不正検出システムを用いて実験を行った結果、FRAUD-RLAは脅威モデルによる厳しい制約を考慮しても有効であることが示唆された。
関連論文リスト
- Slot: Provenance-Driven APT Detection through Graph Reinforcement Learning [24.84110719035862]
先進的永続脅威(Advanced Persistent Threats、APT)は、長期にわたって検出されていない能力によって特徴づけられる高度なサイバー攻撃である。
本稿では,前駆グラフとグラフ強化学習に基づく高度なAPT検出手法であるSlotを提案する。
Slotの卓越した精度、効率、適応性、そしてAPT検出の堅牢性を示し、ほとんどのメトリクスは最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-10-23T14:28:32Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Credit Card Fraud Detection with Subspace Learning-based One-Class
Classification [18.094622095967328]
1クラス分類(OCC)アルゴリズムは、不均衡なデータ分散を扱うのに優れている。
これらのアルゴリズムは、部分空間学習をデータ記述に統合する。
これらのアルゴリズムは、OCCに最適化された低次元の部分空間にデータを変換する。
論文 参考訳(メタデータ) (2023-09-26T12:26:28Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Few-shot Weakly-supervised Cybersecurity Anomaly Detection [1.179179628317559]
本稿では,既存の弱教師付きディープラーニング異常検出フレームワークの強化を提案する。
このフレームワークには、データ拡張、表現学習、順序回帰が含まれている。
そして、3つのベンチマークデータセット上で実装したフレームワークの性能を評価した。
論文 参考訳(メタデータ) (2023-04-15T04:37:54Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data [3.2458203725405976]
逆の攻撃は、逆の例、つまり、AIシステムが間違った出力を返すように誘導するわずかに変更された入力を生成することを目的としています。
本稿では,不正検出の文脈において,最先端アルゴリズムを不均衡データに適用する新しい手法を提案する。
実験の結果,提案する修正が攻撃成功率に繋がることがわかった。
実世界の生産システムに適用した場合,提案手法は,高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
論文 参考訳(メタデータ) (2021-01-20T08:58:29Z) - Challenging the adversarial robustness of DNNs based on error-correcting
output codes [33.46319608673487]
ECOCベースのネットワークは、小さな逆方向の摂動を導入することで、非常に容易に攻撃できる。
敵の例は、予測対象クラスの高い確率を達成するために、このような方法で生成することができる。
論文 参考訳(メタデータ) (2020-03-26T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。