論文の概要: Does Debiasing Inevitably Degrade the Model Performance
- arxiv url: http://arxiv.org/abs/2211.07350v2
- Date: Mon, 12 Jun 2023 13:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 02:08:27.590802
- Title: Does Debiasing Inevitably Degrade the Model Performance
- Title(参考訳): デバイアスは必然的にモデルパフォーマンスを低下させるか
- Authors: Yiran Liu, Xiao Liu, Haotian Chen and Yang Yu
- Abstract要約: 本稿では、言語モデルの性バイアスの3つの候補メカニズムを説明する理論的枠組みを提案する。
また、デバイアスがモデル性能を劣化させない経路も発見する。
- 参考スコア(独自算出の注目度): 8.20550078248207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gender bias in language models has attracted sufficient attention because it
threatens social justice. However, most of the current debiasing methods
degraded the model's performance on other tasks while the degradation mechanism
is still mysterious. We propose a theoretical framework explaining the three
candidate mechanisms of the language model's gender bias. We use our
theoretical framework to explain why the current debiasing methods cause
performance degradation. We also discover a pathway through which debiasing
will not degrade the model performance. We further develop a
causality-detection fine-tuning approach to correct gender bias. The numerical
experiment demonstrates that our method is able to lead to double dividends:
partially mitigating gender bias while avoiding performance degradation.
- Abstract(参考訳): 言語モデルのジェンダーバイアスは社会的正義を脅かすので十分な注目を集めている。
しかし、現在のデバイアス法のほとんどは、モデルの性能を他のタスクで低下させ、分解メカニズムはまだ謎のままである。
言語モデルのジェンダーバイアスの3つの候補メカニズムを説明する理論的枠組みを提案する。
我々は,現在のデバイアス手法が性能低下の原因となる理由を説明するために,理論的な枠組みを用いる。
また,デバイアスがモデル性能を劣化させない経路も発見する。
さらに,性別バイアスを正すための因果検出細調整手法を開発した。
数値実験により, 性能劣化を回避しつつ, 男女偏差を部分的に緩和する手法が, 二重配当に導かれることが示された。
関連論文リスト
- DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - Detecting and Mitigating Algorithmic Bias in Binary Classification using
Causal Modeling [0.0]
予測モデルの性別バイアスは0.05レベルで統計的に有意であることを示す。
本研究は,性別バイアス軽減のための因果モデルの有効性を示す。
我々の新しいアプローチは直感的で使いやすく、R の "lavaan" のような既存の統計ソフトウェアツールを使って実装することができる。
論文 参考訳(メタデータ) (2023-10-19T02:21:04Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Gender Biases and Where to Find Them: Exploring Gender Bias in
Pre-Trained Transformer-based Language Models Using Movement Pruning [32.62430731115707]
本稿では,移動プルーニングによるトランスフォーマーベース言語モデルのバイアス検査のための新しい枠組みを示す。
モデルを微調整しながらデバイアスの対象にすることで、私たちのフレームワークを実装します。
モデルのパフォーマンスが向上すればするほど、バイアスが増します。
論文 参考訳(メタデータ) (2022-07-06T06:20:35Z) - Mitigating Gender Bias in Distilled Language Models via Counterfactual
Role Reversal [74.52580517012832]
言語エクセルモデルは、性中立性を持つ男女の知識を含むバイアスを受けることができる。
本稿では,複数の学習ロール設定に基づくジェンダー格差を緩和するための新しいアプローチを提案する。
男女極性言語を減少させるモデルは、公平さや下流の分類を改善しない。
論文 参考訳(メタデータ) (2022-03-23T17:34:35Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。