論文の概要: Crafting Imperceptible On-Manifold Adversarial Attacks for Tabular Data
- arxiv url: http://arxiv.org/abs/2507.10998v1
- Date: Tue, 15 Jul 2025 05:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.991148
- Title: Crafting Imperceptible On-Manifold Adversarial Attacks for Tabular Data
- Title(参考訳): タブラルデータに対する非受容的オン・マニフォールド・アタック
- Authors: Zhipeng He, Alexander Stevens, Chun Ouyang, Johannes De Smedt, Alistair Barros, Catarina Moreira,
- Abstract要約: 表形式のデータに対する敵対攻撃は、画像やテキストドメインとは異なる根本的な課題を示す。
従来の勾配に基づく手法は$ell_p$-norm制約を優先し、許容できない逆の例を生成する。
本研究では,混合入力変分オートエンコーダ(VAE)を用いた遅延空間摂動フレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.69043684367127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on tabular data present fundamental challenges distinct from image or text domains due to the heterogeneous nature of mixed categorical and numerical features. Unlike images where pixel perturbations maintain visual similarity, tabular data lacks intuitive similarity metrics, making it difficult to define imperceptible modifications. Additionally, traditional gradient-based methods prioritise $\ell_p$-norm constraints, often producing adversarial examples that deviate from the original data distributions, making them detectable. We propose a latent space perturbation framework using a mixed-input Variational Autoencoder (VAE) to generate imperceptible adversarial examples. The proposed VAE integrates categorical embeddings and numerical features into a unified latent manifold, enabling perturbations that preserve statistical consistency. We specify In-Distribution Success Rate (IDSR) to measure the proportion of adversarial examples that remain statistically indistinguishable from the input distribution. Evaluation across six publicly available datasets and three model architectures demonstrates that our method achieves substantially lower outlier rates and more consistent performance compared to traditional input-space attacks and other VAE-based methods adapted from image domain approaches. Our comprehensive analysis includes hyperparameter sensitivity, sparsity control mechanisms, and generative architectural comparisons, revealing that VAE-based attacks depend critically on reconstruction quality but offer superior practical utility when sufficient training data is available. This work highlights the importance of on-manifold perturbations for realistic adversarial attacks on tabular data, offering a robust approach for practical deployment. The source code can be accessed through https://github.com/ZhipengHe/VAE-TabAttack.
- Abstract(参考訳): 表型データに対する敵対的攻撃は、画像領域やテキスト領域とは異なる基本的な課題を示す。
ピクセル摂動が視覚的類似性を維持する画像とは異なり、表型データには直感的な類似性指標がないため、知覚できない修正を定義することは困難である。
さらに、従来の勾配ベースのメソッドは$\ell_p$-norm制約を優先し、元のデータ分布から逸脱する逆例をしばしば生成し、それらを検出することができる。
本研究では,混合入力変分オートエンコーダ(VAE)を用いた遅延空間摂動フレームワークを提案する。
提案したVAEは、分類的埋め込みと数値的特徴を統一潜在多様体に統合し、統計的整合性を維持する摂動を可能にする。
入力分布と統計的に区別できない敵例の割合を測定するために,IDSR(In-Distribution Success Rate)を指定する。
6つの公開データセットと3つのモデルアーキテクチャによる評価は、従来の入力空間攻撃や画像ドメインアプローチに適応した他のVAEベースの手法と比較して、我々の手法がはるかに低いアウトレーラ率とより一貫した性能を達成することを示す。
我々の包括的分析には、過度パラメータ感度、疎性制御機構、および生成的アーキテクチャ比較が含まれており、VAEベースの攻撃が十分なトレーニングデータが得られる場合に、再構築品質に重大な依存するが、優れた実用性を提供することを明らかにした。
この研究は、表型データに対する現実的な敵攻撃に対するオンマンフォールド摂動の重要性を強調し、実用的な展開のための堅牢なアプローチを提供する。
ソースコードはhttps://github.com/ZhipengHe/VAE-TabAttackを通じてアクセスすることができる。
関連論文リスト
- Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [26.645723217188323]
CSAD(Class-Specific Anomaly Detection)は,新しい異常検出手法である。
CSADは, 広い良性分布ではなく, 予測されたクラス分布に対して, 対数サンプルを評価する。
本評価では, 異常検出率とSHAPに基づく評価を併用し, 対向検体品質のより包括的測定を行う。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis [1.6693963355435217]
敵対的攻撃は、機械学習モデルに対する潜在的な脅威である。
これらの攻撃は入力データに対する知覚不能な摂動を通じて誤った予測を引き起こす。
本研究は、敵攻撃の非受容性を評価するための重要な特徴とそれに対応する指標のセットを提案する。
論文 参考訳(メタデータ) (2024-07-16T07:55:25Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Frequency-driven Imperceptible Adversarial Attack on Semantic Similarity [22.28011382580367]
敵対的攻撃研究は、慎重に構築された摂動に対する学習ベースの分類器の脆弱性を明らかにする。
特徴表現における意味的類似性を攻撃する新しいアルゴリズムを提案する。
本稿では,高周波成分の摂動を制限するために低周波制約を導入する。
論文 参考訳(メタデータ) (2022-03-10T04:46:51Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。