論文の概要: On the Effects of Adversarial Perturbations on Distribution Robustness
- arxiv url: http://arxiv.org/abs/2601.16464v1
- Date: Fri, 23 Jan 2026 05:49:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.556477
- Title: On the Effects of Adversarial Perturbations on Distribution Robustness
- Title(参考訳): 対向摂動が分布ロバスト性に及ぼす影響について
- Authors: Yipei Wang, Zhaoying Pan, Xiaoqian Wang,
- Abstract要約: 対向ロバスト性(英: Adversarial robustness)とは、入力の摂動に抵抗するモデルの能力を指す。
分散ロバスト性は、データシフト時のモデルの性能を評価する。
以前の研究は、流通と敵の堅牢性におけるトレードオフを明らかにしていた。
- 参考スコア(独自算出の注目度): 25.334167445566496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial robustness refers to a model's ability to resist perturbation of inputs, while distribution robustness evaluates the performance of the model under data shifts. Although both aim to ensure reliable performance, prior work has revealed a tradeoff in distribution and adversarial robustness. Specifically, adversarial training might increase reliance on spurious features, which can harm distribution robustness, especially the performance on some underrepresented subgroups. We present a theoretical analysis of adversarial and distribution robustness that provides a tractable surrogate for per-step adversarial training by studying models trained on perturbed data. In addition to the tradeoff, our work further identified a nuanced phenomenon that $\ell_\infty$ perturbations on data with moderate bias can yield an increase in distribution robustness. Moreover, the gain in distribution robustness remains on highly skewed data when simplicity bias induces reliance on the core feature, characterized as greater feature separability. Our theoretical analysis extends the understanding of the tradeoff by highlighting the interplay of the tradeoff and the feature separability. Despite the tradeoff that persists in many cases, overlooking the role of feature separability may lead to misleading conclusions about robustness.
- Abstract(参考訳): 逆ロバスト性(英: Adversarial robustness)とは、モデルが入力の摂動に抵抗する能力のことであり、一方、分布ロバスト性はデータシフト時のモデルの性能を評価する。
どちらも信頼性の高いパフォーマンスを保証することを目的としているが、事前の作業は、分散と敵の堅牢性におけるトレードオフを明らかにしている。
特に、敵対的な訓練は、分布のロバスト性、特に一部の未表現サブグループのパフォーマンスに害を与えるような、突発的な特徴への依存を増す可能性がある。
本稿では, 摂動データに基づく学習モデルを用いて, 対向的・分布的ロバスト性の理論的解析を行い, 対向的訓練のためのトラクタブル・サロゲートを提供する。
トレードオフに加えて、我々の研究は、適度なバイアスを持つデータに対する$\ell_\infty$摂動が分布の堅牢性を高めるというニュアンスな現象をさらに特定した。
さらに、単純さバイアスが特徴分離性の向上を特徴とするコア機能への依存を誘発する場合、分布の堅牢性の向上は、高度に歪んだデータに留まる。
我々の理論的分析は、トレードオフの相互作用と特徴分離性を強調することによって、トレードオフの理解を拡張します。
多くの場合、トレードオフは持続するが、機能分離の役割を見渡すことは、堅牢性に関する誤解を招く可能性がある。
関連論文リスト
- On the Correlation between Individual Fairness and Predictive Accuracy in Probabilistic Models [42.25718513969163]
個人的特徴の摂動に対する後部推論の頑健さを解析し, 生成確率的分類器の個性について検討した。
我々は、ロバスト性と予測精度の相関関係を仮説し、特に、よりロバスト性が高いインスタンスを正確に分類する傾向にある。
論文 参考訳(メタデータ) (2025-09-16T15:17:13Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Unveiling the Potential of Probabilistic Embeddings in Self-Supervised
Learning [4.124934010794795]
自己教師付き学習は、ラベルのないデータから意味のある表現をモデルが取得できるようにすることで、機械学習を前進させる上で重要な役割を担っている。
本稿では,情報ボトルネックに対する確率的モデリングの影響について検討し,情報圧縮と情報保存のトレードオフについて述べる。
以上の結果から,損失空間に新たなボトルネックを導入することにより,アウト・オブ・ディストリビューションの事例を検出する能力が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2023-10-27T12:01:16Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。