論文の概要: TabAttackBench: A Benchmark for Adversarial Attacks on Tabular Data
- arxiv url: http://arxiv.org/abs/2505.21027v1
- Date: Tue, 27 May 2025 11:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.596014
- Title: TabAttackBench: A Benchmark for Adversarial Attacks on Tabular Data
- Title(参考訳): TabAttackBench: タブラルデータに対する敵攻撃のベンチマーク
- Authors: Zhipeng He, Chun Ouyang, Lijie Wen, Cong Liu, Catarina Moreira,
- Abstract要約: 敵対的攻撃は機械学習モデルに重大な脅威をもたらす。
これらの攻撃は、入力データに対する知覚不能な摂動を通じて誤った予測を誘導する。
本研究は,4モデルにわたる5つの敵攻撃の有効性と非受容性について検討した。
- 参考スコア(独自算出の注目度): 15.189680105419924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks pose a significant threat to machine learning models by inducing incorrect predictions through imperceptible perturbations to input data. While these attacks have been extensively studied in unstructured data like images, their application to tabular data presents new challenges. These challenges arise from the inherent heterogeneity and complex feature interdependencies in tabular data, which differ significantly from those in image data. To address these differences, it is crucial to consider imperceptibility as a key criterion specific to tabular data. Most current research focuses primarily on achieving effective adversarial attacks, often overlooking the importance of maintaining imperceptibility. To address this gap, we propose a new benchmark for adversarial attacks on tabular data that evaluates both effectiveness and imperceptibility. In this study, we assess the effectiveness and imperceptibility of five adversarial attacks across four models using eleven tabular datasets, including both mixed and numerical-only datasets. Our analysis explores how these factors interact and influence the overall performance of the attacks. We also compare the results across different dataset types to understand the broader implications of these findings. The findings from this benchmark provide valuable insights for improving the design of adversarial attack algorithms, thereby advancing the field of adversarial machine learning on tabular data.
- Abstract(参考訳): 敵対的攻撃は、入力データに対する知覚不能な摂動を通じて誤った予測を誘導することにより、機械学習モデルに重大な脅威をもたらす。
これらの攻撃は、画像のような非構造化データで広く研究されているが、表データへの適用は新しい課題を示している。
これらの課題は、表データの固有の不均一性と複雑な特徴相互依存性から生じ、画像データとは大きく異なる。
これらの違いに対処するためには、知覚不能を表データ固有の重要な基準として考えることが不可欠である。
現在の研究は主に効果的な敵攻撃を達成することに焦点を当てており、しばしば非受容性を維持することの重要性を見落としている。
このギャップに対処するために,本研究では,有効性と非受容性の両方を評価する表型データに対する敵攻撃の新たなベンチマークを提案する。
本研究では,混合および数値のみのデータセットを含む11個の表付きデータセットを用いて,4つのモデルにまたがる5つの敵攻撃の有効性と非受容性を評価する。
我々の分析は、これらの要因がどのように相互作用し、攻撃の全体的なパフォーマンスに影響を与えるかを探求する。
また、異なるデータセットタイプで結果を比較して、これらの結果のより広範な意味を理解する。
このベンチマークから得られた知見は、敵対的攻撃アルゴリズムの設計を改善するための貴重な洞察を与え、それによって、表型データに対する敵対的機械学習の分野を前進させる。
関連論文リスト
- Understanding Data Importance in Machine Learning Attacks: Does Valuable Data Pose Greater Harm? [23.2883929808036]
5つの異なる攻撃タイプを解析することにより,データ重要度と機械学習攻撃との関係について検討する。
例えば、高重要性データサンプルは、メンバーシップ推論やモデル盗難などの特定の攻撃において、脆弱性が増大していることを観察する。
これらの知見は、実用性最大化と価値あるデータの保護のバランスを崩す革新的な防衛機構の緊急の必要性を強調している。
論文 参考訳(メタデータ) (2024-09-05T17:54:26Z) - Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis [1.6693963355435217]
敵対的攻撃は、機械学習モデルに対する潜在的な脅威である。
これらの攻撃は入力データに対する知覚不能な摂動を通じて誤った予測を引き起こす。
本研究は、敵攻撃の非受容性を評価するための重要な特徴とそれに対応する指標のセットを提案する。
論文 参考訳(メタデータ) (2024-07-16T07:55:25Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - It Is All About Data: A Survey on the Effects of Data on Adversarial
Robustness [4.1310970179750015]
逆の例は、攻撃者が意図的にモデルを混乱させてミスを犯すように設計された機械学習モデルへの入力である。
この問題に対処するために、敵の堅牢性の領域は、敵の攻撃の背後にあるメカニズムとこれらの攻撃に対する防御を調査する。
論文 参考訳(メタデータ) (2023-03-17T04:18:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。