論文の概要: Sy-FAR: Symmetry-based Fair Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2509.12939v1
- Date: Tue, 16 Sep 2025 10:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.039424
- Title: Sy-FAR: Symmetry-based Fair Adversarial Robustness
- Title(参考訳): Sy-FAR: 対称性に基づく公正な対立ロバスト性
- Authors: Haneen Najjar, Eyal Ronen, Mahmood Sharif,
- Abstract要約: セキュリティクリティカル機械学習(ML)システムは、敵の例に影響を受けやすい。
特定のクラスやグループから攻撃するのは、他のクラスよりも容易であることが多い。
Sy-FARは, 対称性を向上すると同時に, 対向ロバスト性を最適化する手法である。
- 参考スコア(独自算出の注目度): 12.306208202393092
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Security-critical machine-learning (ML) systems, such as face-recognition systems, are susceptible to adversarial examples, including real-world physically realizable attacks. Various means to boost ML's adversarial robustness have been proposed; however, they typically induce unfair robustness: It is often easier to attack from certain classes or groups than from others. Several techniques have been developed to improve adversarial robustness while seeking perfect fairness between classes. Yet, prior work has focused on settings where security and fairness are less critical. Our insight is that achieving perfect parity in realistic fairness-critical tasks, such as face recognition, is often infeasible -- some classes may be highly similar, leading to more misclassifications between them. Instead, we suggest that seeking symmetry -- i.e., attacks from class $i$ to $j$ would be as successful as from $j$ to $i$ -- is more tractable. Intuitively, symmetry is a desirable because class resemblance is a symmetric relation in most domains. Additionally, as we prove theoretically, symmetry between individuals induces symmetry between any set of sub-groups, in contrast to other fairness notions where group-fairness is often elusive. We develop Sy-FAR, a technique to encourage symmetry while also optimizing adversarial robustness and extensively evaluate it using five datasets, with three model architectures, including against targeted and untargeted realistic attacks. The results show Sy-FAR significantly improves fair adversarial robustness compared to state-of-the-art methods. Moreover, we find that Sy-FAR is faster and more consistent across runs. Notably, Sy-FAR also ameliorates another type of unfairness we discover in this work -- target classes that adversarial examples are likely to be classified into become significantly less vulnerable after inducing symmetry.
- Abstract(参考訳): 顔認識システムのようなセキュリティクリティカル機械学習(ML)システムは、現実世界の物理的に実現可能な攻撃を含む敵の例に影響を受けやすい。
MLの敵対的堅牢性を高める様々な手段が提案されているが、通常不公平な堅牢性を引き起こす: 特定のクラスやグループから攻撃するのは、他のクラスよりも容易である。
クラス間の完全公正性を追求しながら、対向ロバスト性を改善するために、いくつかの技術が開発されている。
しかし、以前の作業では、セキュリティと公平性があまり重要でない設定に重点を置いていた。
私たちの洞察では、顔認識のような現実的な公平性クリティカルなタスクにおいて完璧なパリティを達成することは、しばしば実現不可能である。いくつかのクラスは、非常に類似しており、それらの間により多くの誤分類をもたらす可能性がある。代わりに、私たちは対称性を求めること、すなわち、$i$から$j$への攻撃は、$j$から$i$への攻撃と同じくらい成功すると提案する。
直観的には、クラス類似性は多くの領域において対称関係であるため、対称性は望ましい。
さらに、理論的に証明されるように、個人間の対称性は任意の部分群の間の対称性を誘導する。
我々はSy-FARを開発した。Sy-FARは対称性を促進すると同時に、敵の強靭性を最適化し、5つのデータセットを用いて広範に評価する。
以上の結果から,Sy-FARは最先端手法に比べて正反対のロバスト性を大幅に向上することが示された。
さらに、Sy-FARは実行中に高速で一貫性があることがわかった。
特に、Sy-FARは、我々がこの研究で発見した別の不公平性を改善している。
関連論文リスト
- Preference Poisoning Attacks on Reward Model Learning [47.00395978031771]
ペア比較による報酬モデル学習における脆弱性の性質と範囲について検討する。
本稿では,これらの攻撃に対するアルゴリズム的アプローチのクラスとして,勾配に基づくフレームワークと,ランク・バイ・ディスタンス手法のいくつかのバリエーションを提案する。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - DAFA: Distance-Aware Fair Adversarial Training [34.94780532071229]
敵対的攻撃の下では、最悪のクラスからのサンプルに対するモデルの予測の大半は、最悪のクラスと同様のクラスに偏っている。
本稿では,クラス間の類似性を考慮し,頑健な公正性に対処するDAFA手法を提案する。
論文 参考訳(メタデータ) (2024-01-23T07:15:47Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Adversarial Contrastive Learning via Asymmetric InfoNCE [64.42740292752069]
非対称なInfoNCEの目的と対比した場合,非対称なサンプルを不等に扱うことを提案する。
非対称的な方法では、CLと対向学習の相反する目的の悪影響を効果的に軽減することができる。
実験の結果,提案手法は既存CL法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-18T04:14:36Z) - Analysis and Applications of Class-wise Robustness in Adversarial
Training [92.08430396614273]
敵の訓練は、敵の例に対するモデルロバスト性を改善するための最も効果的な手法の1つである。
従来の研究は主にモデルの全体的な堅牢性に焦点を当てており、各クラスの役割に関する詳細な分析はいまだに欠落している。
MNIST, CIFAR-10, CIFAR-100, SVHN, STL-10, ImageNetの6つのベンチマークデータセットに対して, 逆トレーニングの詳細な診断を行う。
対戦型学習におけるより強力な攻撃手法は、主に脆弱なクラスに対するより成功した攻撃から、性能の向上を達成することを観察する。
論文 参考訳(メタデータ) (2021-05-29T07:28:35Z) - Perceptually Constrained Adversarial Attacks [2.0305676256390934]
通常適用される$L_p$ノルムを構造類似度指標(SSIM)尺度に置き換える。
当社のSSIM制限された敵対攻撃は、最先端の敵対的訓練を受けた分類器を破壊し、弾性ネット攻撃よりも類似またはより大きな成功率を達成できます。
本研究は,複数の防衛計画の性能を,従来よりも知覚的にはるかに有意義な方法で評価する。
論文 参考訳(メタデータ) (2021-02-14T12:28:51Z) - Block Switching: A Stochastic Approach for Deep Learning Security [75.92824098268471]
近年の敵対的攻撃の研究は、現代のディープラーニングモデルの脆弱性を明らかにしている。
本稿では、オン性に基づく敵攻撃に対する防御戦略であるBlock Switching(BS)を紹介する。
論文 参考訳(メタデータ) (2020-02-18T23:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。