論文の概要: Uncertainty Calibration for Ensemble-Based Debiasing Methods
- arxiv url: http://arxiv.org/abs/2111.04104v1
- Date: Sun, 7 Nov 2021 15:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:01:10.102513
- Title: Uncertainty Calibration for Ensemble-Based Debiasing Methods
- Title(参考訳): アンサンブルに基づくデバイアス法の不確実性校正
- Authors: Ruibin Xiong, Yimeng Chen, Liang Pang, Xueqi Chen and Yanyan Lan
- Abstract要約: 本稿では,アンサンブルに基づくデバイアス法におけるバイアスのみのモデルに焦点をあてる。
バイアスのみのモデルの不正確な不確実性推定により, バイアス除去性能が損なわれることを示す。
そこで本研究では,バイアスのみのモデルでキャリブレーションを行い,三段階のアンサンブルに基づくデバイアス機構を実現することを提案する。
- 参考スコア(独自算出の注目度): 27.800387167841972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble-based debiasing methods have been shown effective in mitigating the
reliance of classifiers on specific dataset bias, by exploiting the output of a
bias-only model to adjust the learning target. In this paper, we focus on the
bias-only model in these ensemble-based methods, which plays an important role
but has not gained much attention in the existing literature. Theoretically, we
prove that the debiasing performance can be damaged by inaccurate uncertainty
estimations of the bias-only model. Empirically, we show that existing
bias-only models fall short in producing accurate uncertainty estimations.
Motivated by these findings, we propose to conduct calibration on the bias-only
model, thus achieving a three-stage ensemble-based debiasing framework,
including bias modeling, model calibrating, and debiasing. Experimental results
on NLI and fact verification tasks show that our proposed three-stage debiasing
framework consistently outperforms the traditional two-stage one in
out-of-distribution accuracy.
- Abstract(参考訳): アンサンブルに基づくデバイアス法は、偏見のみのモデルの出力を利用して学習目標を調整することにより、特定のデータセットバイアスに対する分類器の依存を緩和する効果が示されている。
本稿では,これらのアンサンブルに基づく手法におけるバイアスのみのモデルに焦点をあてる。
理論的には、バイアスのみモデルの不正確な不確実性推定によってデバイアス性能が損なわれることを証明する。
実験的に、既存のバイアスのみのモデルでは正確な不確実性推定が得られないことを示す。
そこで本研究では, バイアスのみのモデルの校正を行い, バイアスモデリング, モデル校正, 脱バイアスを含む3段階のアンサンブルに基づく脱バイアスフレームワークを実現することを提案する。
NLIおよび事実検証タスクの実験結果から,提案した3段階の脱バイアスフレームワークは,従来の2段階の脱バイアスフレームワークよりも分配精度が高いことがわかった。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Large Language Model Bias Mitigation from the Perspective of Knowledge Editing [12.855975783223236]
本研究では,個々のバイアス知識の微粒化による編集可能な公平性を実現するための,新しい脱バイアス手法であるFairness Stamp(FAST)を提案する。
FASTは、知識保存のための全体的なモデル能力を妨げることなく、最先端のベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2024-05-15T13:44:13Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Towards Debiasing NLU Models from Unknown Biases [70.31427277842239]
NLUモデルは、しばしばバイアスを利用して、意図したタスクを適切に学習することなく、データセット固有の高いパフォーマンスを達成する。
本稿では、モデルがバイアスを事前に知ることなく、主にバイアスを利用するのを防ぐ自己バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-25T15:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。