論文の概要: On Transferability of Bias Mitigation Effects in Language Model
Fine-Tuning
- arxiv url: http://arxiv.org/abs/2010.12864v2
- Date: Sun, 11 Apr 2021 23:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 11:58:48.493619
- Title: On Transferability of Bias Mitigation Effects in Language Model
Fine-Tuning
- Title(参考訳): 言語モデルファインチューニングにおけるバイアス緩和効果の伝達性について
- Authors: Xisen Jin, Francesco Barbieri, Brendan Kennedy, Aida Mostafazadeh
Davani, Leonardo Neves, Xiang Ren
- Abstract要約: 微調整された言語モデルは、一連のモデリングタスクにおいて保護されたグループに対するバイアスを示すことが示されている。
これまでの研究は、これらのバイアスの検出、データの表現におけるバイアスの低減、微調整時のバイアスを軽減するための補助的なトレーニング目的の使用に重点を置いていた。
下流タスクにおけるバイアスを軽減するために、上流バイアス軽減(UBM)の実現可能性とメリットについて検討する。
- 参考スコア(独自算出の注目度): 30.833538367971872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuned language models have been shown to exhibit biases against
protected groups in a host of modeling tasks such as text classification and
coreference resolution. Previous works focus on detecting these biases,
reducing bias in data representations, and using auxiliary training objectives
to mitigate bias during fine-tuning. Although these techniques achieve bias
reduction for the task and domain at hand, the effects of bias mitigation may
not directly transfer to new tasks, requiring additional data collection and
customized annotation of sensitive attributes, and re-evaluation of appropriate
fairness metrics. We explore the feasibility and benefits of upstream bias
mitigation (UBM) for reducing bias on downstream tasks, by first applying bias
mitigation to an upstream model through fine-tuning and subsequently using it
for downstream fine-tuning. We find, in extensive experiments across hate
speech detection, toxicity detection, occupation prediction, and coreference
resolution tasks over various bias factors, that the effects of UBM are indeed
transferable to new downstream tasks or domains via fine-tuning, creating less
biased downstream models than directly fine-tuning on the downstream task or
transferring from a vanilla upstream model. Though challenges remain, we show
that UBM promises more efficient and accessible bias mitigation in LM
fine-tuning.
- Abstract(参考訳): 微調整された言語モデルは、テキスト分類やコリファレンス解決といった多くのモデリングタスクで保護されたグループに対してバイアスを示すことが示されている。
以前の研究では、これらのバイアスの検出、データ表現のバイアスの低減、および微調整中のバイアス軽減のための補助トレーニング目標の使用に重点を置いている。
これらの技術はタスクとドメインのバイアス低減を実現するが、バイアス軽減の効果は直接新しいタスクに移行せず、データ収集や機密属性のアノテーションのカスタマイズ、適切な公平度指標の再評価を必要とする。
上流バイアス緩和(ubm:upstream bias mitigation)は下流タスクのバイアスを軽減するため,まずは微調整によって上流モデルにバイアス緩和を適用し,その後下流の微調整に使用する。
様々なバイアス要因に対するヘイトスピーチ検出、毒性検出、占領予測、コア参照解決タスクの広範な実験において、UDMの効果は、下流タスクやドメインにファインチューニングすることで、下流タスクやバニラ上流モデルを直接微調整するよりも、バイアスの少ない下流モデルを生成することができることがわかった。
課題は残るが、UDMはLM微調整においてより効率的でアクセスしやすいバイアス緩和を約束している。
関連論文リスト
- Towards Understanding Task-agnostic Debiasing Through the Lenses of Intrinsic Bias and Forgetfulness [10.081447621656523]
言語モデリング能力に影響を及ぼす影響は、高品質でコンテキストの長いデバイアスコーパスによって緩和することができる。
タスク依存型デバイアスングヒンジの有効性は、下流アプリケーションに使用されるタスク固有データとデバイアスドモデルの両方の量的バイアスレベルに影響を及ぼす。
本稿では,ソーシャル・フェア・デバイアスを下流ファインチューニング,ProSocialTuningに伝達する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-06T15:11:11Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Overwriting Pretrained Bias with Finetuning Data [36.050345384273655]
目的タスクと機密属性の相互関係を概念化した場合のバイアスや,データセット内の特定のグループを過小評価する場合のバイアスについて検討する。
事前訓練されたモデルの上に微調整されたモデルは、実際にそれらのバイアスを継承できるが、(2)このバイアスは、比較的小さな介入によって修正できる。
その結果、下流タスクのバイアスを軽減するためには、微調整データセットの慎重なキュレーションが重要であることが示唆され、事前訓練されたモデルのバイアスを補うこともできる。
論文 参考訳(メタデータ) (2023-03-10T19:10:58Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。