論文の概要: Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency
- arxiv url: http://arxiv.org/abs/2412.07326v1
- Date: Tue, 10 Dec 2024 09:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:36:17.726632
- Title: Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency
- Title(参考訳): タブラルドメインにおける敵攻撃と防衛の鍵的課題--一貫性と一貫性のための方法論的枠組み
- Authors: Yael Itzhakev, Amit Giloni, Yuval Elovici, Asaf Shabtai,
- Abstract要約: 本稿では,表領域における敵攻撃に適した新たな評価基準を提案する。
また,サンプル内のコヒーレンスと特徴整合性を維持しつつ,依存する特徴を摂動する新しい手法を導入する。
この発見は、表領域における様々な敵攻撃の強さ、限界、トレードオフに関する貴重な知見を提供する。
- 参考スコア(独自算出の注目度): 26.645723217188323
- License:
- Abstract: Machine learning models trained on tabular data are vulnerable to adversarial attacks, even in realistic scenarios where attackers have access only to the model's outputs. Researchers evaluate such attacks by considering metrics like success rate, perturbation magnitude, and query count. However, unlike other data domains, the tabular domain contains complex interdependencies among features, presenting a unique aspect that should be evaluated: the need for the attack to generate coherent samples and ensure feature consistency for indistinguishability. Currently, there is no established methodology for evaluating adversarial samples based on these criteria. In this paper, we address this gap by proposing new evaluation criteria tailored for tabular attacks' quality; we defined anomaly-based framework to assess the distinguishability of adversarial samples and utilize the SHAP explainability technique to identify inconsistencies in the model's decision-making process caused by adversarial samples. These criteria could form the basis for potential detection methods and be integrated into established evaluation metrics for assessing attack's quality Additionally, we introduce a novel technique for perturbing dependent features while maintaining coherence and feature consistency within the sample. We compare different attacks' strategies, examining black-box query-based attacks and transferability-based gradient attacks across four target models. Our experiments, conducted on benchmark tabular datasets, reveal significant differences between the examined attacks' strategies in terms of the attacker's risk and effort and the attacks' quality. The findings provide valuable insights on the strengths, limitations, and trade-offs of various adversarial attacks in the tabular domain, laying a foundation for future research on attacks and defense development.
- Abstract(参考訳): 表形式のデータに基づいてトレーニングされた機械学習モデルは、攻撃者がモデルの出力にのみアクセス可能な現実的なシナリオであっても、敵攻撃に対して脆弱である。
研究者は、成功率、摂動の大きさ、クエリ数などの指標を考慮し、そのような攻撃を評価する。
しかし、他のデータドメインとは異なり、タブ状のドメインには機能間の複雑な相互依存性が含まれており、評価すべきユニークな側面が提示されている。
現在、これらの基準に基づき、敵のサンプルを評価するための確立した方法論は存在しない。
本稿では,表型攻撃の品質に合わせた新たな評価基準を提案することにより,このギャップに対処する。敵のサンプルの識別性を評価するための異常ベースフレームワークを定義し,SHAP説明可能性技術を用いて敵のサンプルによるモデル決定過程の不整合を識別する。
これらの基準は、潜在的な検出手法の基礎を形成し、攻撃品質を評価するための確立された評価指標に統合することができる。
ブラックボックスクエリに基づく攻撃と、転送可能性に基づく4つのターゲットモデルに対する勾配攻撃を比較して、異なる攻撃戦略を比較した。
ベンチマーク表を用いた実験により,攻撃者のリスクと労力と攻撃品質の点で,調査対象の攻撃戦略に有意な差異が認められた。
この発見は、表領域における様々な敵攻撃の強さ、限界、トレードオフに関する貴重な洞察を与え、将来の攻撃と防衛開発の研究の基礎を築いた。
関連論文リスト
- Investigating Imperceptibility of Adversarial Attacks on Tabular Data: An Empirical Analysis [1.6693963355435217]
敵対的攻撃は、機械学習モデルに対する潜在的な脅威である。
これらの攻撃は入力データに対する知覚不能な摂動を通じて誤った予測を引き起こす。
本研究は、敵攻撃の非受容性を評価するための重要な特徴とそれに対応する指標のセットを提案する。
論文 参考訳(メタデータ) (2024-07-16T07:55:25Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Adversarial Robustness on Image Classification with $k$-means [3.5385056709199536]
我々は、攻撃に対する$k$-meansクラスタリングアルゴリズムの脆弱性を評価し、関連するセキュリティリスクを強調した。
敵シナリオにおけるテスト性能を向上させるための敵訓練手法を導入・評価する。
論文 参考訳(メタデータ) (2023-12-15T04:51:43Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。