論文の概要: Benign Shortcut for Debiasing: Fair Visual Recognition via Intervention
with Shortcut Features
- arxiv url: http://arxiv.org/abs/2308.08482v1
- Date: Sun, 13 Aug 2023 00:40:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 12:35:21.725403
- Title: Benign Shortcut for Debiasing: Fair Visual Recognition via Intervention
with Shortcut Features
- Title(参考訳): 障害に対する良性ショートカット:ショートカット機能による介入による公正な視覚認識
- Authors: Yi Zhang, Jitao Sang, Junyang Wang, Dongmei Jiang, Yaowei Wang
- Abstract要約: 本稿では,まず,対象タスクのバイアス特性の学習をバイアス特徴からショートカット特徴へ伝達する。
我々は,最先端のデバイアス法に対して,精度と公平性を両立させ,大幅な改善を実現した。
- 参考スコア(独自算出の注目度): 47.01860331227165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models often learn to make predictions that rely on
sensitive social attributes like gender and race, which poses significant
fairness risks, especially in societal applications, such as hiring, banking,
and criminal justice. Existing work tackles this issue by minimizing the
employed information about social attributes in models for debiasing. However,
the high correlation between target task and these social attributes makes
learning on the target task incompatible with debiasing. Given that model bias
arises due to the learning of bias features (\emph{i.e}., gender) that help
target task optimization, we explore the following research question: \emph{Can
we leverage shortcut features to replace the role of bias feature in target
task optimization for debiasing?} To this end, we propose \emph{Shortcut
Debiasing}, to first transfer the target task's learning of bias attributes
from bias features to shortcut features, and then employ causal intervention to
eliminate shortcut features during inference. The key idea of \emph{Shortcut
Debiasing} is to design controllable shortcut features to on one hand replace
bias features in contributing to the target task during the training stage, and
on the other hand be easily removed by intervention during the inference stage.
This guarantees the learning of the target task does not hinder the elimination
of bias features. We apply \emph{Shortcut Debiasing} to several benchmark
datasets, and achieve significant improvements over the state-of-the-art
debiasing methods in both accuracy and fairness.
- Abstract(参考訳): 機械学習モデルは、性別や人種のようなセンシティブな社会的属性に依存する予測を学習し、特に雇用、銀行、刑事司法といった社会的な応用において、かなりの公正性リスクをもたらす。
既存の作業は、デバイアスのモデルにおける社会的属性に関する雇用情報の最小化によってこの問題に取り組む。
しかし,対象課題とこれらの社会的属性との間に高い相関関係があるため,対象タスクの学習は嫌悪感と相容れない。
モデルバイアスは、バイアス特徴 (\emph{i.e}) の学習によって生じる。
目標タスク最適化におけるバイアス機能の役割を置き換えるために、ショートカット機能を活用します。
この目的のために,まず,対象タスクのバイアス特性の学習をバイアス特徴からショートカット特徴へ伝達し,推論中にショートカット特徴を除去するために因果的介入を採用する。
emph{Shortcut Debiasing} のキーとなるアイデアは、トレーニング段階における目標タスクへの貢献において、一方がバイアス機能を置き換えるための制御可能なショートカット機能を設計することであり、他方が推論段階における介入によって容易に除去される。
これにより、対象タスクの学習がバイアス特徴の排除を妨げないことが保証される。
いくつかのベンチマークデータセットに \emph{Shortcut Debiasing} を適用し、精度と公平性の両方で最先端の debiasing 手法を大幅に改善する。
関連論文リスト
- Unlabeled Debiasing in Downstream Tasks via Class-wise Low Variance Regularization [13.773597081543185]
本稿では,組込みのクラスワイドな分散に基づく新しいデバイアス正規化手法を提案する。
提案手法は属性ラベルを必要とせず,属性をターゲットとせず,既存のデバイアス手法の欠点に対処する。
論文 参考訳(メタデータ) (2024-09-29T03:56:50Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Don't blame Dataset Shift! Shortcut Learning due to Gradients and Cross
Entropy [22.69591517487717]
マージンを最大化するためのデフォルトERMの好みは、安定機能よりもショートカットに依存するモデルにつながることを示す。
我々は、マージン制御(MARG-CTRL)と呼ばれる一様マージン解を促進する損失関数を開発する。
論文 参考訳(メタデータ) (2023-08-24T04:39:25Z) - Fair Visual Recognition via Intervention with Proxy Features [13.280828458515062]
既存の作業は、デバイアスのモデルにおける社会的属性に関する情報を最小限にする。
目標タスクと社会的属性の高相関は、目標タスクの精度とバイアス軽減を両立させる。
本稿では,まず,対象タスクのバイアス情報の学習をバイアス特徴から人工的プロキシ特徴に伝達し,推論におけるプロキシ特徴の排除に因果的介入を適用することを提案する。
論文 参考訳(メタデータ) (2022-11-02T16:33:49Z) - Controlling Bias Exposure for Fair Interpretable Predictions [11.364105288235308]
盲目的に排除するのではなく、センシティブな情報を「公平に」使うのが望ましいと我々は主張する。
我々のモデルは、偏りのある論理を証拠として生み出すとともに、偏りとタスクパフォーマンスの間の望ましいトレードオフを達成する。
論文 参考訳(メタデータ) (2022-10-14T01:49:01Z) - Less Learn Shortcut: Analyzing and Mitigating Learning of Spurious
Feature-Label Correlation [44.319739489968164]
ディープニューラルネットワークは、タスクを理解するのではなく、意思決定をするためのショートカットとしてデータセットバイアスを取ることが多い。
本研究では,モデルがバイアスデータ分布から学習する単語特徴とラベルとの素早い相関に着目した。
本手法は, 偏りのある例と下級者の偏り度を定量的に評価する学習戦略である。
論文 参考訳(メタデータ) (2022-05-25T09:08:35Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Learning Stable Classifiers by Transferring Unstable Features [59.06169363181417]
本研究では,素早い相関関係の存在下での伝達学習について検討する。
提案手法は, ソースタスクで学習した安定な特徴抽出器を直接転送しても, 対象タスクのバイアスを排除できないことを実験的に実証する。
我々は、ソースタスクの不安定な特徴とターゲットタスクの不安定な特徴が直接関連していると仮定する。
論文 参考訳(メタデータ) (2021-06-15T02:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。