論文の概要: Improving Bias Mitigation through Bias Experts in Natural Language
Understanding
- arxiv url: http://arxiv.org/abs/2312.03577v1
- Date: Wed, 6 Dec 2023 16:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 14:22:45.457754
- Title: Improving Bias Mitigation through Bias Experts in Natural Language
Understanding
- Title(参考訳): 自然言語理解におけるバイアスエキスパートによるバイアス軽減
- Authors: Eojin Jeon, Mingyu Lee, Juhyeong Park, Yeachan Kim, Wing-Lam Mok,
SangKeun Lee
- Abstract要約: 補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
- 参考スコア(独自算出の注目度): 10.363406065066538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biases in the dataset often enable the model to achieve high performance on
in-distribution data, while poorly performing on out-of-distribution data. To
mitigate the detrimental effect of the bias on the networks, previous works
have proposed debiasing methods that down-weight the biased examples identified
by an auxiliary model, which is trained with explicit bias labels. However,
finding a type of bias in datasets is a costly process. Therefore, recent
studies have attempted to make the auxiliary model biased without the guidance
(or annotation) of bias labels, by constraining the model's training
environment or the capability of the model itself. Despite the promising
debiasing results of recent works, the multi-class learning objective, which
has been naively used to train the auxiliary model, may harm the bias
mitigation effect due to its regularization effect and competitive nature
across classes. As an alternative, we propose a new debiasing framework that
introduces binary classifiers between the auxiliary model and the main model,
coined bias experts. Specifically, each bias expert is trained on a binary
classification task derived from the multi-class classification task via the
One-vs-Rest approach. Experimental results demonstrate that our proposed
strategy improves the bias identification ability of the auxiliary model.
Consequently, our debiased model consistently outperforms the state-of-the-art
on various challenge datasets.
- Abstract(参考訳): データセット内のバイアスにより、しばしばモデルが分散データで高いパフォーマンスを達成できるが、分散データでは不十分である。
ネットワーク上のバイアスの有害な影響を軽減するため、従来の研究は、明示的なバイアスラベルで訓練された補助モデルによって識別されるバイアスの例を減じるデバイアス手法を提案している。
しかし、データセットにバイアスのタイプを見つけるのはコストのかかるプロセスです。
そこで,近年の研究では,モデルの学習環境やモデル自体の能力を制限することで,バイアスラベルの指導(あるいはアノテーション)なしに補助モデルに偏りを持たせようとしている。
近年の研究で有望な偏りがあるにもかかわらず、補助モデルの訓練に自然に用いられてきた多クラス学習目標は、その正規化効果とクラス間の競合性によってバイアス緩和効果を損なう可能性がある。
代替として、補助モデルと主モデルの間の二項分類を導入し、バイアスエキスパートをつくりだす新しいデバイアス化フレームワークを提案する。
具体的には、各バイアスエキスパートは、One-vs-Restアプローチを介して、多クラス分類タスクから派生したバイナリ分類タスクで訓練される。
実験の結果,提案手法は補助モデルのバイアス識別能力を向上することが示された。
その結果、デバイアスモデルは、さまざまなチャレンジデータセットで最先端を一貫して上回っています。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。