論文の概要: Conditional Supervised Contrastive Learning for Fair Text Classification
- arxiv url: http://arxiv.org/abs/2205.11485v1
- Date: Mon, 23 May 2022 17:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:13:30.113409
- Title: Conditional Supervised Contrastive Learning for Fair Text Classification
- Title(参考訳): 公正テキスト分類のための条件付き教師付きコントラスト学習
- Authors: Jianfeng Chi, William Shand, Yaodong Yu, Kai-Wei Chang, Han Zhao, Yuan
Tian
- Abstract要約: 対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
そこで本研究では,条件付き教師付きコントラスト目標を用いてテキスト分類の公平な表現を学習することを提案する。
- 参考スコア(独自算出の注目度): 59.813422435604025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive representation learning has gained much attention due to its
superior performance in learning representations from both image and sequential
data. However, the learned representations could potentially lead to
performance disparities in downstream tasks, such as increased silencing of
underrepresented groups in toxicity comment classification. In light of this
challenge, in this work, we study learning fair representations that satisfy a
notion of fairness known as equalized odds for text classification via
contrastive learning. Specifically, we first theoretically analyze the
connections between learning representations with fairness constraint and
conditional supervised contrastive objectives. Inspired by our theoretical
findings, we propose to use conditional supervised contrastive objectives to
learn fair representations for text classification. We conduct experiments on
two text datasets to demonstrate the effectiveness of our approaches in
balancing the trade-offs between task performance and bias mitigation among
existing baselines for text classification. Furthermore, we also show that the
proposed methods are stable in different hyperparameter settings.
- Abstract(参考訳): コントラスト表現学習は画像データとシーケンシャルデータの両方から表現を学習する際の優れた性能から注目されている。
しかし、学習された表現は、有害なコメント分類における過度の表現されたグループのサイレンシングの増加など、下流のタスクにおけるパフォーマンスの格差につながる可能性がある。
この課題を踏まえ、本研究では、対照的な学習を通してテキスト分類のための等化奇数として知られる公平性の概念を満たす学習公正表現について研究する。
具体的には,まず,公平性制約を伴う学習表現と条件付き教師付き対照目的との関係を理論的に解析した。
そこで本研究では,条件付き教師付きコントラスト目標を用いてテキスト分類の公平な表現を学習することを提案する。
テキスト分類のための既存のベースライン間のタスク性能とバイアス軽減のトレードオフのバランスをとるために,2つのテキストデータセットの実験を行った。
さらに,提案手法は異なるハイパーパラメータ設定で安定であることを示す。
関連論文リスト
- Rethinking Fair Representation Learning for Performance-Sensitive Tasks [19.40265690963578]
因果推論を用いて、データセットバイアスの異なるソースを定義し、定式化する。
我々は、分布シフト下での公正表現学習の性能を調べるために、様々な医学的モダリティにまたがる実験を行う。
論文 参考訳(メタデータ) (2024-10-05T11:01:16Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Generative or Contrastive? Phrase Reconstruction for Better Sentence
Representation Learning [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分強力な文表現をもたらし、コントラスト学習と同等の文文類似性タスクで性能を達成することができる。
論文 参考訳(メタデータ) (2022-04-20T10:00:46Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - Understanding Contrastive Learning Requires Incorporating Inductive
Biases [64.56006519908213]
下流タスクにおけるコントラスト学習の成功を理論的に説明しようとする最近の試みは、エム強化の特性とエムコントラスト学習の損失の値によって保証が証明されている。
このような分析は,関数クラスやトレーニングアルゴリズムの帰納的バイアスを無視し,いくつかの設定において不確実な保証につながることを実証する。
論文 参考訳(メタデータ) (2022-02-28T18:59:20Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。