論文の概要: Fairness via Adversarial Attribute Neighbourhood Robust Learning
- arxiv url: http://arxiv.org/abs/2210.06630v1
- Date: Wed, 12 Oct 2022 23:39:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:04:42.245322
- Title: Fairness via Adversarial Attribute Neighbourhood Robust Learning
- Title(参考訳): 副次的帰属型ロバスト学習によるフェアネス
- Authors: Qi Qi, Shervin Ardeshir, Yi Xu, Tianbao Yang
- Abstract要約: 本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
- 参考スコア(独自算出の注目度): 49.93775302674591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving fairness between privileged and less-privileged sensitive attribute
groups (e.g, {race, gender}) has attracted lots of attention. To enhance the
model performs uniformly well in different sensitive attributes, we propose a
principled \underline{R}obust \underline{A}dversarial \underline{A}ttribute
\underline{N}eighbourhood (RAAN) loss to debias the classification head and
promote a fairer representation distribution across different sensitive
attribute groups. The key idea of RAAN is to mitigate the differences of biased
representations between different sensitive attribute groups by assigning each
sample an adversarial robust weight, which is defined on the representations of
adversarial attribute neighbors, i.e, the samples from different protected
groups. To provide efficient optimization algorithms, we cast the RAAN into a
sum of coupled compositional functions and propose a stochastic adaptive
(Adam-style) and non-adaptive (SGD-style) algorithm framework SCRAAN with
provable theoretical guarantee. Extensive empirical studies on fairness-related
benchmark datasets verify the effectiveness of the proposed method.
- Abstract(参考訳): 特権的および特権的でない特性群(例えば、人種、性別)間の公平性の改善は、多くの注目を集めている。
モデルが異なる感度特性で一様に機能することを示すために, 異なる感度属性群にまたがるより公平な表現分布を抑えるために, 原理化された \underline{R}obust \underline{A}dversarial \underline{A}ttribute \underline{N}eighbourhood (RAAN)損失を提案する。
RAANの鍵となる考え方は、それぞれのサンプルに逆向きの頑健な重みを割り当てることによって、異なる機密属性群間の偏りのある表現の差を緩和することである。
効率的な最適化アルゴリズムを提供するため、raanを結合合成関数の和にキャストし、確率的適応型(アダム型)および非適応型(sgd型)アルゴリズムフレームワークscraanを提案する。
フェアネス関連ベンチマークデータセットに関する広範囲な実証研究により,提案手法の有効性が検証された。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Multiple Attribute Fairness: Application to Fraud Detection [0.0]
本稿では, 人気均等度制度における等値条件を緩和する公平度尺度を提案する。
評価基準に適合する機密属性値当たりの結果を校正する反復的非依存グリッドベースモデルを設計する。
論文 参考訳(メタデータ) (2022-07-28T19:19:45Z) - Spread Spurious Attribute: Improving Worst-group Accuracy with Spurious
Attribute Estimation [72.92329724600631]
本稿では,最悪のグループ精度を向上させるために,疑似属性に基づくアルゴリズムSpread Spurious Attributeを提案する。
各種ベンチマークデータセットに対する実験により,アルゴリズムはベースライン法より一貫して優れていることが示された。
また,提案したSSAは,フル (100%) のスプリアス特性監視を用いた手法に匹敵する性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-04-05T09:08:30Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Data Augmentation Imbalance For Imbalanced Attribute Classification [60.71438625139922]
本稿では,データ拡張不均衡(DAI)と呼ばれる新しい再サンプリングアルゴリズムを提案する。
我々のDAIアルゴリズムは歩行者属性のデータセットに基づいて最先端の結果を得る。
論文 参考訳(メタデータ) (2020-04-19T20:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。