論文の概要: TriCon-Fair: Triplet Contrastive Learning for Mitigating Social Bias in Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2511.00854v1
- Date: Sun, 02 Nov 2025 08:37:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.966594
- Title: TriCon-Fair: Triplet Contrastive Learning for Mitigating Social Bias in Pre-trained Language Models
- Title(参考訳): TriCon-Fair:事前学習型言語モデルにおけるソーシャルバイアスの緩和のためのトリプルトコントラスト学習
- Authors: Chong Lyu, Lin Li, Shiqing Wu, Jingling Yuan,
- Abstract要約: TriCon-Fairは、三重項と言語モデリングの用語を組み合わせて、正負の結合を排除する、分離された損失を利用する対照的な学習フレームワークである。
実験結果から,TriCon-Fairは既存のデバイアスベースラインを超えて識別出力を減少させることが示された。
- 参考スコア(独自算出の注目度): 14.709063635156054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing utilization of large language models raises significant concerns about the propagation of social biases, which may result in harmful and unfair outcomes. However, existing debiasing methods treat the biased and unbiased samples independently, thus ignoring their mutual relationship. This oversight enables a hidden negative-positive coupling, where improvements for one group inadvertently compromise the other, allowing residual social bias to persist. In this paper, we introduce TriCon-Fair, a contrastive learning framework that employs a decoupled loss that combines triplet and language modeling terms to eliminate positive-negative coupling. Our TriCon-Fair assigns each anchor an explicitly biased negative and an unbiased positive, decoupling the push-pull dynamics and avoiding positive-negative coupling, and jointly optimizes a language modeling (LM) objective to preserve general capability. Experimental results demonstrate that TriCon-Fair reduces discriminatory output beyond existing debiasing baselines while maintaining strong downstream performance. This suggests that our proposed TriCon-Fair offers a practical and ethical solution for sensitive NLP applications.
- Abstract(参考訳): 大規模言語モデルの利用の増加は、社会的偏見の伝播に大きな懸念をもたらし、有害で不公平な結果をもたらす可能性がある。
しかし、既存の脱バイアス法は偏りや偏りのないサンプルを個別に扱うため、相互の関係を無視する。
この監視は隠れた負の正の結合を可能にし、あるグループの改善が必然的にもう一方の集団を妥協させ、残余の社会的偏見を持続させる。
本稿では,三重項と言語モデリングの用語を組み合わせて,正負の結合を解消する逆学習フレームワークであるTriCon-Fairを紹介する。
我々のTriCon-Fairは、各アンカーに明らかに偏りのある負の正の正の正の正の正の正の正の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の重なりを割り当て、汎用性を維持するために言語モデリング(LM)の目的を共同で最適化する。
実験により,TriCon-Fairは,下流性能を維持しつつ,既存のデバイアスベースラインを超えて識別出力を減少させることを示した。
このことは,提案したTriCon-Fairが,機密性の高いNLPアプリケーションに対して実用的で倫理的なソリューションを提供することを示唆している。
関連論文リスト
- KLAAD: Refining Attention Mechanisms to Reduce Societal Bias in Generative Language Models [1.649505438157608]
大規模言語モデル(LLM)は、しばしばアウトプットに社会的偏見を示し、公正さと害に関する倫理的懸念を引き起こす。
KLAAD(KL-Attention Alignment Debiasing)は,ステレオタイプと反ステレオタイプ文ペア間の注意分布を暗黙的に整列する,注意に基づく脱バイアスフレームワークである。
KLAADの実験的評価は、BBQとBOLDのベンチマークにおけるバイアス軽減の改善を示し、言語モデリングの品質に最小限の影響を与える。
論文 参考訳(メタデータ) (2025-07-26T14:24:19Z) - Paying Alignment Tax with Contrastive Learning [6.232983467016873]
現在のデバイアスのアプローチは、事実の正確性や知識の保持といったモデル能力の低下をもたらすことが多い。
本稿では, 慎重に構築された肯定的, 否定的な例を通して学習する, 対照的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-25T21:26:18Z) - Mitigate One, Skew Another? Tackling Intersectional Biases in Text-to-Image Models [73.20190633746442]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用を解析・定量化するための新しいツールであるBiasConnectを紹介する。
ユーザが定義した目標分布と優先度重みを導出する交叉バイアス緩和アルゴリズムであるInterMitを提案する。
論文 参考訳(メタデータ) (2025-05-22T20:56:38Z) - Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs [25.62533031580287]
大規模言語モデル(LLM)のバイアスは、その信頼性と公平性を著しく損なう。
モデルベクトル空間の構造に基づくテストセットのないバイアス分析フレームワークであるBiasLensを提案する。
論文 参考訳(メタデータ) (2025-05-21T13:50:23Z) - Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - DebCSE: Rethinking Unsupervised Contrastive Sentence Embedding Learning
in the Debiasing Perspective [1.351603931922027]
様々なバイアスの影響を効果的に排除することは、高品質な文の埋め込みを学習するために重要であると論じる。
本稿では,これらのバイアスの影響を排除できる文埋め込みフレームワークDebCSEを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:43:34Z) - Provable Unrestricted Adversarial Training without Compromise with Generalizability [44.02361569894942]
敵の攻撃から守るための最も有望な戦略として、敵の訓練(AT)が広く考えられている。
既存のAT法は、標準的な一般化性を犠牲にして、しばしば敵の強靭性を達成している。
我々はProvable Unrestricted Adversarial Training (PUAT)と呼ばれる新しいATアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-22T07:45:51Z) - Ensembling over Classifiers: a Bias-Variance Perspective [13.006468721874372]
Pfau (2013) による偏差分解の拡張の上に構築し, 分類器のアンサンブルの挙動に関する重要な知見を得る。
条件付き推定は必然的に既約誤差を生じさせることを示す。
経験的に、標準的なアンサンブルはバイアスを減少させ、この予期せぬ減少のために、分類器のアンサンブルがうまく機能するかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2022-06-21T17:46:35Z) - Debiased Contrastive Learning of Unsupervised Sentence Representations [88.58117410398759]
コントラスト学習は、事前訓練された言語モデル(PLM)を改善し、高品質な文表現を導き出すのに有効である。
以前の作業は、主にランダムにトレーニングデータからバッチ内陰性またはサンプルを採用する。
我々はこれらの不適切な負の影響を軽減するための新しいフレームワーク textbfDCLR を提案する。
論文 参考訳(メタデータ) (2022-05-02T05:07:43Z) - PCL: Peer-Contrastive Learning with Diverse Augmentations for
Unsupervised Sentence Embeddings [69.87899694963251]
本稿では,多彩な拡張を伴う新しいピアコントラスト学習(PCL)を提案する。
PCLは、教師なし文の埋め込みのために、グループレベルで様々な対照的な正と負を構成する。
PCLはピア陽性のコントラストとピアネットワークの協調が可能である。
論文 参考訳(メタデータ) (2022-01-28T13:02:41Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。