論文の概要: Contrastive Learning for Fair Representations
- arxiv url: http://arxiv.org/abs/2109.10645v1
- Date: Wed, 22 Sep 2021 10:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:58:36.610041
- Title: Contrastive Learning for Fair Representations
- Title(参考訳): 公正表現のためのコントラスト学習
- Authors: Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
- Abstract要約: 訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
- 参考スコア(独自算出の注目度): 50.95604482330149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trained classification models can unintentionally lead to biased
representations and predictions, which can reinforce societal preconceptions
and stereotypes. Existing debiasing methods for classification models, such as
adversarial training, are often expensive to train and difficult to optimise.
In this paper, we propose a method for mitigating bias in classifier training
by incorporating contrastive learning, in which instances sharing the same
class label are encouraged to have similar representations, while instances
sharing a protected attribute are forced further apart. In such a way our
method learns representations which capture the task label in focused regions,
while ensuring the protected attribute has diverse spread, and thus has limited
impact on prediction and thereby results in fairer models. Extensive
experimental results across four tasks in NLP and computer vision show (a) that
our proposed method can achieve fairer representations and realises bias
reductions compared with competitive baselines; and (b) that it can do so
without sacrificing main task performance; (c) that it sets a new
state-of-the-art performance in one task despite reducing the bias. Finally,
our method is conceptually simple and agnostic to network architectures, and
incurs minimal additional compute cost.
- Abstract(参考訳): 訓練された分類モデルは意図せずバイアスのある表現や予測を導き、社会的先入観やステレオタイプを補強することができる。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
本稿では,同じクラスラベルを共有するインスタンスに類似した表現が奨励され,保護属性を共有するインスタンスはさらに分離される,対照的な学習を取り入れた分類器訓練におけるバイアス軽減手法を提案する。
このような方法では,タスクラベルを集中した領域でキャプチャする表現を学習し,保護属性が広範囲に分散していることを確認した上で,予測への影響を限定し,より公平なモデルを生成する。
nlpとコンピュータビジョンの4つの課題における広範囲な実験結果
(a)提案手法が,競争ベースラインと比較して公正な表現を達成し,バイアス低減を実現すること,及び
(b)主業務性能を犠牲にすることなく行うことができること
(c) バイアスを低減しながら1つのタスクで新しい最先端のパフォーマンスを設定すること。
最後に,本手法は概念的に単純であり,ネットワークアーキテクチャに依存せず,計算コストも最小限に抑えられる。
関連論文リスト
- The Bad Batches: Enhancing Self-Supervised Learning in Image Classification Through Representative Batch Curation [1.519321208145928]
人間の監督なしに堅牢な表現を学ぶことの追求は、長年にわたる課題である。
本稿では,Fr'echet ResNet Distance(FRD)によるペアワイズ類似性計算を用いて,偽正負負対と偽負対の影響を緩和する。
提案手法の有効性は,STL10で87.74%,Flower102データセットで99.31%,自己教師付きコントラスト表現で訓練された線形分類器によって実証された。
論文 参考訳(メタデータ) (2024-03-28T17:04:07Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models [4.189643331553922]
半教師付き小ショット分類のための潜在空間レベルで識別学習と生成学習を統合するディープ・インバーチブルハイブリッドモデルを提案する。
我々の主な独創性は、これらのコンポーネントを潜在空間レベルで統合することであり、過度な適合を防ぐのに有効である。
論文 参考訳(メタデータ) (2021-05-22T05:55:16Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。