論文の概要: Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis
- arxiv url: http://arxiv.org/abs/2407.11463v1
- Date: Tue, 16 Jul 2024 07:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:12:18.407093
- Title: Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis
- Title(参考訳): タブラルデータに対する敵対的攻撃の非受容性の検討--経験的分析
- Authors: Zhipeng He, Chun Ouyang, Laith Alzubaidi, Alistair Barros, Catarina Moreira,
- Abstract要約: 敵対的攻撃は、入力データに知覚不能な摂動を導入することによって、機械学習モデルが誤った予測を行う可能性がある。
本研究は,表型データに対する敵攻撃の非受容性を評価するための特性セットを定義する。
この評価は、特に近接性、感度、偏差に関して、攻撃の成功と不可避性の間のトレードオフを明らかにしている。
- 参考スコア(独自算出の注目度): 1.6693963355435217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are a potential threat to machine learning models, as they can cause the model to make incorrect predictions by introducing imperceptible perturbations to the input data. While extensively studied in unstructured data like images, their application to structured data like tabular data presents unique challenges due to the heterogeneity and intricate feature interdependencies of tabular data. Imperceptibility in tabular data involves preserving data integrity while potentially causing misclassification, underscoring the need for tailored imperceptibility criteria for tabular data. However, there is currently a lack of standardised metrics for assessing adversarial attacks specifically targeted at tabular data. To address this gap, we derive a set of properties for evaluating the imperceptibility of adversarial attacks on tabular data. These properties are defined to capture seven perspectives of perturbed data: proximity to original inputs, sparsity of alterations, deviation to datapoints in the original dataset, sensitivity of altering sensitive features, immutability of perturbation, feasibility of perturbed values and intricate feature interdepencies among tabular features. Furthermore, we conduct both quantitative empirical evaluation and case-based qualitative examples analysis for seven properties. The evaluation reveals a trade-off between attack success and imperceptibility, particularly concerning proximity, sensitivity, and deviation. Although no evaluated attacks can achieve optimal effectiveness and imperceptibility simultaneously, unbounded attacks prove to be more promised for tabular data in crafting imperceptible adversarial examples. The study also highlights the limitation of evaluated algorithms in controlling sparsity effectively. We suggest incorporating a sparsity metric in future attack design to regulate the number of perturbed features.
- Abstract(参考訳): 敵攻撃は機械学習モデルに対する潜在的な脅威であり、入力データに知覚不能な摂動を導入することによって、モデルに誤った予測をさせる可能性がある。
画像のような非構造化データで広く研究されているが、表データのような構造化データへの応用は、表データの不均一性と複雑な特徴相互依存性のため、ユニークな課題を呈している。
表型データにおける非受容性は、データ完全性を維持しながら、潜在的に分類ミスを引き起こし、表型データに対する修正された非受容性基準の必要性を強調する。
しかし、現在、表データに特化した敵攻撃を評価するための標準化された指標が欠如している。
このギャップに対処するために、表データに対する敵攻撃の認識不能性を評価するための一連の特性を導出する。
これらの特性は、摂動データの7つの視点を捉えるために定義される: 原入力への近接、変化の空間性、元のデータセットにおけるデータポイントへの偏差、感度のある特徴の感度、摂動の不変性、摂動値の実現可能性、表特徴間の複雑な特徴相互依存性。
さらに,7つの特性について定量的評価とケースベース定性例解析を行った。
この評価は、特に近接性、感度、偏差に関して、攻撃の成功と不可避性の間のトレードオフを明らかにしている。
評価された攻撃は最適効果と非知覚性を同時に達成することができないが、非有界攻撃は、非知覚的な敵の例を作成する際に、表層データに対してより有望であることが証明されている。
この研究は、空間性を制御するための評価アルゴリズムの限界も強調している。
我々は,今後の攻撃設計に空間距離を組み込むことによって,乱れた特徴の数を調節することを提案する。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate
classifiers [80.2657717174889]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - Double Perturbation: On the Robustness of Robustness and Counterfactual
Bias Evaluation [109.06060143938052]
テストデータセットを超えたモデル弱点を明らかにするための"ダブル摂動"フレームワークを提案する。
この枠組みを,モデルの頑健さと英語における反事実バイアスの分析に使用される2つの摂動に基づくアプローチに応用する。
論文 参考訳(メタデータ) (2021-04-12T06:57:36Z) - Detecting Anomalies Through Contrast in Heterogeneous Data [21.56932906044264]
先行モデルの欠点に対処するために,コントラスト学習に基づく異種異常検出器を提案する。
我々のモデルは非対称オートエンコーダを使い、大きなarity カテゴリ変数を効果的に処理できる。
木材取引における異常検出におけるモデルの有効性を示す質的研究を行った。
論文 参考訳(メタデータ) (2021-04-02T17:21:12Z) - Multi-Source Causal Inference Using Control Variates [81.57072928775509]
本稿では,複数のデータソースから因果効果を推定するアルゴリズムを提案する。
理論的には、これはATE推定値の分散を減少させる。
このフレームワークを結果選択バイアスの下で観測データからの推論に適用する。
論文 参考訳(メタデータ) (2021-03-30T21:20:51Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Not All Datasets Are Born Equal: On Heterogeneous Data and Adversarial
Examples [46.625818815798254]
我々は、異種データで訓練された機械学習モデルは、同種データで訓練された機械学習モデルと同じくらい敵の操作に影響を受けやすいと論じる。
不均一な入力空間における逆摂動を識別する汎用的な最適化フレームワークを提案する。
その結果、異種データセットの入力妥当性に制約が課されているにもかかわらず、そのようなデータを用いて訓練された機械学習モデルは相変わらず敵の例にも適用可能であることが示された。
論文 参考訳(メタデータ) (2020-10-07T05:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。