論文の概要: Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis
- arxiv url: http://arxiv.org/abs/2407.11463v1
- Date: Tue, 16 Jul 2024 07:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:12:18.407093
- Title: Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis
- Title(参考訳): タブラルデータに対する敵対的攻撃の非受容性の検討--経験的分析
- Authors: Zhipeng He, Chun Ouyang, Laith Alzubaidi, Alistair Barros, Catarina Moreira,
- Abstract要約: 敵対的攻撃は、入力データに知覚不能な摂動を導入することによって、機械学習モデルが誤った予測を行う可能性がある。
本研究は,表型データに対する敵攻撃の非受容性を評価するための特性セットを定義する。
この評価は、特に近接性、感度、偏差に関して、攻撃の成功と不可避性の間のトレードオフを明らかにしている。
- 参考スコア(独自算出の注目度): 1.6693963355435217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are a potential threat to machine learning models, as they can cause the model to make incorrect predictions by introducing imperceptible perturbations to the input data. While extensively studied in unstructured data like images, their application to structured data like tabular data presents unique challenges due to the heterogeneity and intricate feature interdependencies of tabular data. Imperceptibility in tabular data involves preserving data integrity while potentially causing misclassification, underscoring the need for tailored imperceptibility criteria for tabular data. However, there is currently a lack of standardised metrics for assessing adversarial attacks specifically targeted at tabular data. To address this gap, we derive a set of properties for evaluating the imperceptibility of adversarial attacks on tabular data. These properties are defined to capture seven perspectives of perturbed data: proximity to original inputs, sparsity of alterations, deviation to datapoints in the original dataset, sensitivity of altering sensitive features, immutability of perturbation, feasibility of perturbed values and intricate feature interdepencies among tabular features. Furthermore, we conduct both quantitative empirical evaluation and case-based qualitative examples analysis for seven properties. The evaluation reveals a trade-off between attack success and imperceptibility, particularly concerning proximity, sensitivity, and deviation. Although no evaluated attacks can achieve optimal effectiveness and imperceptibility simultaneously, unbounded attacks prove to be more promised for tabular data in crafting imperceptible adversarial examples. The study also highlights the limitation of evaluated algorithms in controlling sparsity effectively. We suggest incorporating a sparsity metric in future attack design to regulate the number of perturbed features.
- Abstract(参考訳): 敵攻撃は機械学習モデルに対する潜在的な脅威であり、入力データに知覚不能な摂動を導入することによって、モデルに誤った予測をさせる可能性がある。
画像のような非構造化データで広く研究されているが、表データのような構造化データへの応用は、表データの不均一性と複雑な特徴相互依存性のため、ユニークな課題を呈している。
表型データにおける非受容性は、データ完全性を維持しながら、潜在的に分類ミスを引き起こし、表型データに対する修正された非受容性基準の必要性を強調する。
しかし、現在、表データに特化した敵攻撃を評価するための標準化された指標が欠如している。
このギャップに対処するために、表データに対する敵攻撃の認識不能性を評価するための一連の特性を導出する。
これらの特性は、摂動データの7つの視点を捉えるために定義される: 原入力への近接、変化の空間性、元のデータセットにおけるデータポイントへの偏差、感度のある特徴の感度、摂動の不変性、摂動値の実現可能性、表特徴間の複雑な特徴相互依存性。
さらに,7つの特性について定量的評価とケースベース定性例解析を行った。
この評価は、特に近接性、感度、偏差に関して、攻撃の成功と不可避性の間のトレードオフを明らかにしている。
評価された攻撃は最適効果と非知覚性を同時に達成することができないが、非有界攻撃は、非知覚的な敵の例を作成する際に、表層データに対してより有望であることが証明されている。
この研究は、空間性を制御するための評価アルゴリズムの限界も強調している。
我々は,今後の攻撃設計に空間距離を組み込むことによって,乱れた特徴の数を調節することを提案する。
関連論文リスト
- Exploiting the Data Gap: Utilizing Non-ignorable Missingness to Manipulate Model Learning [13.797822374912773]
敵対的ミススティングネス(AM)攻撃は、悪意ある無知の欠陥メカニズムによって動機づけられる。
本研究は,AM攻撃の文脈における連帯学習に焦点を当てる。
両レベルの最適化として,対向的欠落メカニズムの学習を定式化する。
論文 参考訳(メタデータ) (2024-09-06T17:10:28Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - DAGnosis: Localized Identification of Data Inconsistencies using
Structures [73.39285449012255]
機械学習モデルを確実に使用するためには、デプロイメント時のデータの不整合の特定と適切な処理が不可欠である。
我々は,有向非巡回グラフ(DAG)を用いて,トレーニングセットの特徴分布と非依存性を構造として符号化する。
我々の手法はDAGnosisと呼ばれ、これらの構造的相互作用を利用して、価値があり洞察に富んだデータ中心の結論をもたらす。
論文 参考訳(メタデータ) (2024-02-26T11:29:16Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - AI-based Re-identification of Behavioral Clickstream Data [0.0]
本論文は, 行動パターンに基づいて, 個人を純粋に同定する上で, 同様の手法が適用可能であることを実証する。
レコード間の振舞いパターンの単なる類似性は、識別された個人に振舞いデータを正しく属性付けるのに十分である。
また、私たちが導入したAIベースの再識別攻撃に対して回復力があることが示されています。
論文 参考訳(メタデータ) (2022-01-21T16:49:00Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Not All Datasets Are Born Equal: On Heterogeneous Data and Adversarial
Examples [46.625818815798254]
我々は、異種データで訓練された機械学習モデルは、同種データで訓練された機械学習モデルと同じくらい敵の操作に影響を受けやすいと論じる。
不均一な入力空間における逆摂動を識別する汎用的な最適化フレームワークを提案する。
その結果、異種データセットの入力妥当性に制約が課されているにもかかわらず、そのようなデータを用いて訓練された機械学習モデルは相変わらず敵の例にも適用可能であることが示された。
論文 参考訳(メタデータ) (2020-10-07T05:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。