論文の概要: Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data
- arxiv url: http://arxiv.org/abs/2101.08030v1
- Date: Wed, 20 Jan 2021 08:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 07:42:50.387978
- Title: Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data
- Title(参考訳): タブラルデータに対する逆攻撃:フラッド検出と不均衡データへの応用
- Authors: Francesco Cartella, Orlando Anunciacao, Yuki Funabiki, Daisuke
Yamaguchi, Toru Akishita, Olivier Elshocht
- Abstract要約: 逆の攻撃は、逆の例、つまり、AIシステムが間違った出力を返すように誘導するわずかに変更された入力を生成することを目的としています。
本稿では,不正検出の文脈において,最先端アルゴリズムを不均衡データに適用する新しい手法を提案する。
実験の結果,提案する修正が攻撃成功率に繋がることがわかった。
実世界の生産システムに適用した場合,提案手法は,高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
- 参考スコア(独自算出の注目度): 3.2458203725405976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Guaranteeing the security of transactional systems is a crucial priority of
all institutions that process transactions, in order to protect their
businesses against cyberattacks and fraudulent attempts. Adversarial attacks
are novel techniques that, other than being proven to be effective to fool
image classification models, can also be applied to tabular data. Adversarial
attacks aim at producing adversarial examples, in other words, slightly
modified inputs that induce the Artificial Intelligence (AI) system to return
incorrect outputs that are advantageous for the attacker. In this paper we
illustrate a novel approach to modify and adapt state-of-the-art algorithms to
imbalanced tabular data, in the context of fraud detection. Experimental
results show that the proposed modifications lead to a perfect attack success
rate, obtaining adversarial examples that are also less perceptible when
analyzed by humans. Moreover, when applied to a real-world production system,
the proposed techniques shows the possibility of posing a serious threat to the
robustness of advanced AI-based fraud detection procedures.
- Abstract(参考訳): 取引システムのセキュリティを確保することは、企業をサイバー攻撃や不正な試みから守るために、取引を処理するすべての機関にとって重要な優先事項である。
逆襲(adversarial attack)は、愚かな画像分類モデルに効果があると証明される以外の新しい手法であり、表データにも適用できる。
敵の攻撃は、人工知能(ai)システムが攻撃者にとって有利な不正確な出力を返すように誘導する、わずかに修正された入力を生成することを目的としている。
本稿では,不正検出の文脈において,最先端のアルゴリズムを不均衡な表データに適応させる新しい手法について述べる。
実験結果から,提案手法は攻撃成功率に優れており,人間による解析では認識できない敵の例が得られた。
さらに, 実世界の生産システムに適用する場合, 提案手法は, 高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
関連論文リスト
- Utilizing GANs for Fraud Detection: Model Training with Synthetic
Transaction Data [0.0]
本稿では,GAN(Generative Adversarial Networks)の不正検出への応用について検討する。
GANは複雑なデータ分散のモデリングにおいて有望であり、異常検出のための効果的なツールである。
この研究は、ディープラーニング技術によるトランザクションセキュリティの強化におけるGANの可能性を実証している。
論文 参考訳(メタデータ) (2024-02-15T09:48:20Z) - Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - A Heterogeneous Graph Learning Model for Cyber-Attack Detection [4.559898668629277]
サイバー攻撃は、ハッカーが標的とする情報システムに侵入する悪意のある試みである。
本稿では,証明データに基づく知的サイバー攻撃検出手法を提案する。
実験の結果,提案手法は他の学習ベース検出モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T16:03:39Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Certifying Decision Trees Against Evasion Attacks by Program Analysis [9.290879387995401]
本稿では,回避攻撃に対する機械学習モデルの安全性を検証する新しい手法を提案する。
提案手法は,決定木の解釈可能性を利用して命令型プログラムに変換する。
実験の結果,我々の手法は正確かつ効率的であり,最小限の偽陽性しか得られないことが判明した。
論文 参考訳(メタデータ) (2020-07-06T14:18:10Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。