論文の概要: Fair Visual Recognition via Intervention with Proxy Features
- arxiv url: http://arxiv.org/abs/2211.01253v1
- Date: Wed, 2 Nov 2022 16:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:02:36.340887
- Title: Fair Visual Recognition via Intervention with Proxy Features
- Title(参考訳): プロキシ機能付き介入による公平な視覚認識
- Authors: Yi Zhang, Jitao Sang, Junyang Wang
- Abstract要約: 既存の作業は、デバイアスのモデルにおける社会的属性に関する情報を最小限にする。
目標タスクと社会的属性の高相関は、目標タスクの精度とバイアス軽減を両立させる。
本稿では,まず,対象タスクのバイアス情報の学習をバイアス特徴から人工的プロキシ特徴に伝達し,推論におけるプロキシ特徴の排除に因果的介入を適用することを提案する。
- 参考スコア(独自算出の注目度): 13.280828458515062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models often learn to make predictions that rely on sensitive
social attributes like gender and race, which poses significant fairness risks,
especially in societal applications, e.g., hiring, banking, and criminal
justice. Existing work tackles this issue by minimizing information about
social attributes in models for debiasing. However, the high correlation
between target task and social attributes makes bias mitigation incompatible
with target task accuracy. Recalling that model bias arises because the
learning of features in regard to bias attributes (i.e., bias features) helps
target task optimization, we explore the following research question: \emph{Can
we leverage proxy features to replace the role of bias feature in target task
optimization for debiasing?} To this end, we propose \emph{Proxy Debiasing}, to
first transfer the target task's learning of bias information from bias
features to artificial proxy features, and then employ causal intervention to
eliminate proxy features in inference. The key idea of \emph{Proxy Debiasing}
is to design controllable proxy features to on one hand replace bias features
in contributing to target task during the training stage, and on the other hand
easily to be removed by intervention during the inference stage. This
guarantees the elimination of bias features without affecting the target
information, thus addressing the fairness-accuracy paradox in previous
debiasing solutions. We apply \emph{Proxy Debiasing} to several benchmark
datasets, and achieve significant improvements over the state-of-the-art
debiasing methods in both of accuracy and fairness.
- Abstract(参考訳): ディープ・ラーニング・モデルは、特に雇用、銀行、刑事司法などの社会的な応用において、性別や人種のようなセンシティブな社会的属性に依存する予測を学習する。
既存の作業は、デバイアスのモデルにおける社会的属性に関する情報を最小限にすることでこの問題に取り組む。
しかし, 対象タスクと社会的属性の相関性が高いため, 対象タスクの精度とバイアス緩和が相容れない。
バイアス属性(すなわちバイアス機能)に関する特徴の学習がタスク最適化のターゲットとなるため、モデルのバイアスが発生することを思い出して、次の研究課題を探求する。
この目的のために,まず,対象タスクのバイアス情報の学習をバイアス特徴から人工的なプロキシ特徴に伝達し,推論におけるプロキシ特徴の排除に因果的介入を採用することを提案する。
emph{Proxy Debiasing} のキーとなるアイデアは、トレーニング段階における目標タスクへのコントリビュートにおいて、一方がバイアス機能を置き換えるために、制御可能なプロキシ機能を設計することである。
これにより、対象情報に影響を与えることなくバイアス特徴の排除が保証され、従って、以前の偏見解における公平性-正確性パラドックスに対処する。
いくつかのベンチマークデータセットに \emph{Proxy Debiasing} を適用し、精度と公正性の両面で最先端のデバイアス法よりも大幅に改善した。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Benign Shortcut for Debiasing: Fair Visual Recognition via Intervention
with Shortcut Features [47.01860331227165]
本稿では,まず,対象タスクのバイアス特性の学習をバイアス特徴からショートカット特徴へ伝達する。
我々は,最先端のデバイアス法に対して,精度と公平性を両立させ,大幅な改善を実現した。
論文 参考訳(メタデータ) (2023-08-13T00:40:22Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Controlling Bias Exposure for Fair Interpretable Predictions [11.364105288235308]
盲目的に排除するのではなく、センシティブな情報を「公平に」使うのが望ましいと我々は主張する。
我々のモデルは、偏りのある論理を証拠として生み出すとともに、偏りとタスクパフォーマンスの間の望ましいトレードオフを達成する。
論文 参考訳(メタデータ) (2022-10-14T01:49:01Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。