論文の概要: Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy
- arxiv url: http://arxiv.org/abs/2010.13365v2
- Date: Sun, 10 Oct 2021 18:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:22:21.811223
- Title: Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy
- Title(参考訳): ロバストネスはフェアネスのオッズかもしれない:クラスワイドの精度に関する実証的研究
- Authors: Philipp Benz, Chaoning Zhang, Adil Karjauv, In So Kweon
- Abstract要約: CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
- 参考スコア(独自算出の注目度): 85.20742045853738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have made significant advancement,
however, they are widely known to be vulnerable to adversarial attacks.
Adversarial training is the most widely used technique for improving
adversarial robustness to strong white-box attacks. Prior works have been
evaluating and improving the model average robustness without class-wise
evaluation. The average evaluation alone might provide a false sense of
robustness. For example, the attacker can focus on attacking the vulnerable
class, which can be dangerous, especially, when the vulnerable class is a
critical one, such as "human" in autonomous driving. We propose an empirical
study on the class-wise accuracy and robustness of adversarially trained
models. We find that there exists inter-class discrepancy for accuracy and
robustness even when the training dataset has an equal number of samples for
each class. For example, in CIFAR10, "cat" is much more vulnerable than other
classes. Moreover, this inter-class discrepancy also exists for normally
trained models, while adversarial training tends to further increase the
discrepancy. Our work aims to investigate the following questions: (a) is the
phenomenon of inter-class discrepancy universal regardless of datasets, model
architectures and optimization hyper-parameters? (b) If so, what can be
possible explanations for the inter-class discrepancy? (c) Can the techniques
proposed in the long tail classification be readily extended to adversarial
training for addressing the inter-class discrepancy?
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は大きな進歩を遂げているが、敵の攻撃に弱いことが広く知られている。
敵対的訓練は、強いホワイトボックス攻撃に対する敵対的堅牢性を改善するために最も広く用いられるテクニックである。
先行研究は、クラス別評価なしにモデル平均ロバスト性を評価し改善することであった。
平均的な評価だけでは、堅牢性の誤った感覚を与えるかもしれない。
例えば、攻撃者は脆弱なクラスを攻撃することに集中することができる。これは特に、自律運転において脆弱なクラスが重要なクラスである場合、特に危険である。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
例えばcifar10では、"cat"は他のクラスよりもはるかに脆弱です。
さらに、このクラス間の相違は、通常訓練されたモデルにも存在し、対人訓練は相違をさらに増大させる傾向にある。
私たちの研究は以下の質問を調査することを目的としています。
(a)データセット,モデルアーキテクチャ,最適化ハイパーパラメータに関わらず,クラス間不一致の現象は普遍的か?
(b)もしそうなら、クラス間の不一致に対して何が説明できるでしょうか。
(c) ロングテール分類における提案手法は, クラス間不一致に対処するための対人訓練に容易に拡張できるか?
関連論文リスト
- Learning Fair Robustness via Domain Mixup [8.471466670802817]
本研究では,公平なロバストな分類器の学習問題に対するmixupの利用を提案する。
本研究は, 対人訓練と組み合わせることで, クラスレベルでの頑健さの相違を確実に軽減できることを示す。
論文 参考訳(メタデータ) (2024-11-21T18:56:33Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - WAT: Improve the Worst-class Robustness in Adversarial Training [11.872656386839436]
敵の訓練は敵の攻撃から守るための一般的な戦略である。
ディープニューラルネットワーク(DNN)は、敵の例に弱いことが示されている。
本稿では,最悪の対人訓練の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-08T12:54:19Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Analysis and Applications of Class-wise Robustness in Adversarial
Training [92.08430396614273]
敵の訓練は、敵の例に対するモデルロバスト性を改善するための最も効果的な手法の1つである。
従来の研究は主にモデルの全体的な堅牢性に焦点を当てており、各クラスの役割に関する詳細な分析はいまだに欠落している。
MNIST, CIFAR-10, CIFAR-100, SVHN, STL-10, ImageNetの6つのベンチマークデータセットに対して, 逆トレーニングの詳細な診断を行う。
対戦型学習におけるより強力な攻撃手法は、主に脆弱なクラスに対するより成功した攻撃から、性能の向上を達成することを観察する。
論文 参考訳(メタデータ) (2021-05-29T07:28:35Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。