論文の概要: Crafting Imperceptible On-Manifold Adversarial Attacks for Tabular Data
- arxiv url: http://arxiv.org/abs/2507.10998v2
- Date: Thu, 23 Oct 2025 08:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:08.525446
- Title: Crafting Imperceptible On-Manifold Adversarial Attacks for Tabular Data
- Title(参考訳): タブラルデータに対する非受容的オン・マニフォールド・アタック
- Authors: Zhipeng He, Alexander Stevens, Chun Ouyang, Johannes De Smedt, Alistair Barros, Catarina Moreira,
- Abstract要約: 本稿では,混合入力変分オートエンコーダ(VAE)を用いた遅延空間摂動フレームワークを提案し,統計的に一貫した逆の例を生成する。
提案手法は,従来の入力空間攻撃と比較して,アウトレーラ率と一貫した性能を著しく低下させることを示す。
- 参考スコア(独自算出の注目度): 38.89245780759371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on tabular data present unique challenges due to the heterogeneous nature of mixed categorical and numerical features. Unlike images where pixel perturbations maintain visual similarity, tabular data lacks intuitive similarity metrics, making it difficult to define imperceptible modifications. Additionally, traditional gradient-based methods prioritise $\ell_p$-norm constraints, often producing adversarial examples that deviate from the original data distributions. To address this, we propose a latent-space perturbation framework using a mixed-input Variational Autoencoder (VAE) to generate statistically consistent adversarial examples. The proposed VAE integrates categorical embeddings and numerical features into a unified latent manifold, enabling perturbations that preserve statistical consistency. We introduce In-Distribution Success Rate (IDSR) to jointly evaluate attack effectiveness and distributional alignment. Evaluation across six publicly available datasets and three model architectures demonstrates that our method achieves substantially lower outlier rates and more consistent performance compared to traditional input-space attacks and other VAE-based methods adapted from image domain approaches, achieving substantially lower outlier rates and higher IDSR across six datasets and three model architectures. Our comprehensive analyses of hyperparameter sensitivity, sparsity control, and generative architecture demonstrate that the effectiveness of VAE-based attacks depends strongly on reconstruction quality and the availability of sufficient training data. When these conditions are met, the proposed framework achieves superior practical utility and stability compared with input-space methods. This work underscores the importance of maintaining on-manifold perturbations for generating realistic and robust adversarial examples in tabular domains.
- Abstract(参考訳): 表型データに対する敵対的攻撃は、混成分類と数値的特徴の不均一性に起因する固有の課題を示す。
ピクセル摂動が視覚的類似性を維持する画像とは異なり、表型データには直感的な類似性指標がないため、知覚できない修正を定義することは困難である。
さらに、従来の勾配に基づくメソッドは$\ell_p$-norm制約を優先し、元のデータ分布から逸脱する逆例をしばしば生成する。
そこで本稿では,VAE(Mixed-Input Variational Autoencoder)を用いた遅延空間摂動フレームワークを提案する。
提案したVAEは、分類的埋め込みと数値的特徴を統一潜在多様体に統合し、統計的整合性を維持する摂動を可能にする。
In-Distribution Success Rate (IDSR) を導入し,攻撃効果と分布アライメントを共同評価する。
6つの公開データセットと3つのモデルアーキテクチャで評価した結果、従来の入力空間攻撃や、画像ドメインアプローチに適応した他のVAEベースの手法と比較して、我々の手法がはるかに低いアウトレー率とより一貫した性能を達成し、6つのデータセットと3つのモデルアーキテクチャで大幅に低いアウトレー率と高いIDSRを達成することが示された。
VAEによる攻撃の有効性は, 再現性や十分なトレーニングデータの利用性に強く依存していることが, パラメータ感度, 疎結合性制御, 生成アーキテクチャの総合的な分析から明らかとなった。
これらの条件を満たすと,提案手法は入力空間法に比べて実用性や安定性に優れる。
この研究は、表領域における現実的で堅牢な対角的な例を生成するために、オン・マニフォールド摂動を維持することの重要性を浮き彫りにする。
関連論文リスト
- Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [26.645723217188323]
CSAD(Class-Specific Anomaly Detection)は,新しい異常検出手法である。
CSADは, 広い良性分布ではなく, 予測されたクラス分布に対して, 対数サンプルを評価する。
本評価では, 異常検出率とSHAPに基づく評価を併用し, 対向検体品質のより包括的測定を行う。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis [1.6693963355435217]
敵対的攻撃は、機械学習モデルに対する潜在的な脅威である。
これらの攻撃は入力データに対する知覚不能な摂動を通じて誤った予測を引き起こす。
本研究は、敵攻撃の非受容性を評価するための重要な特徴とそれに対応する指標のセットを提案する。
論文 参考訳(メタデータ) (2024-07-16T07:55:25Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Frequency-driven Imperceptible Adversarial Attack on Semantic Similarity [22.28011382580367]
敵対的攻撃研究は、慎重に構築された摂動に対する学習ベースの分類器の脆弱性を明らかにする。
特徴表現における意味的類似性を攻撃する新しいアルゴリズムを提案する。
本稿では,高周波成分の摂動を制限するために低周波制約を導入する。
論文 参考訳(メタデータ) (2022-03-10T04:46:51Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。