論文の概要: Controlling Bias Exposure for Fair Interpretable Predictions
- arxiv url: http://arxiv.org/abs/2210.07455v1
- Date: Fri, 14 Oct 2022 01:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:15:07.592189
- Title: Controlling Bias Exposure for Fair Interpretable Predictions
- Title(参考訳): 公正な解釈可能な予測のためのバイアス露光制御
- Authors: Zexue He, Yu Wang, Julian McAuley, Bodhisattwa Prasad Majumder
- Abstract要約: 盲目的に排除するのではなく、センシティブな情報を「公平に」使うのが望ましいと我々は主張する。
我々のモデルは、偏りのある論理を証拠として生み出すとともに、偏りとタスクパフォーマンスの間の望ましいトレードオフを達成する。
- 参考スコア(独自算出の注目度): 11.364105288235308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work on reducing bias in NLP models usually focuses on protecting or
isolating information related to a sensitive attribute (like gender or race).
However, when sensitive information is semantically entangled with the task
information of the input, e.g., the gender information is predictive for a
profession, a fair trade-off between task performance and bias mitigation is
difficult to achieve. Existing approaches perform this trade-off by eliminating
bias information from the latent space, lacking control over how much bias is
necessarily required to be removed. We argue that a favorable debiasing method
should use sensitive information 'fairly' rather than blindly eliminating it
(Caliskan et al., 2017; Sun et al., 2019). In this work, we provide a novel
debiasing algorithm by adjusting the predictive model's belief to (1) ignore
the sensitive information if it is not useful for the task; (2) use sensitive
information minimally as necessary for the prediction (while also incurring a
penalty). Experimental results on two text classification tasks (influenced by
gender) and an open-ended generation task (influenced by race) indicate that
our model achieves a desirable trade-off between debiasing and task performance
along with producing debiased rationales as evidence.
- Abstract(参考訳): NLPモデルのバイアスを減らすための最近の研究は、通常、センシティブな属性(性別や人種など)に関する情報の保護や分離に焦点を当てている。
しかし、センシティブな情報が入力のタスク情報と意味的に絡み合っている場合、例えば、職業において性別情報が予測可能である場合、タスク性能とバイアス軽減との公平なトレードオフは困難である。
既存のアプローチでは、潜在空間からバイアス情報を排除することでこのトレードオフを実行し、必要なバイアスのコントロールを欠いている。
好ましくないデバイアス手法は、それを盲目的に排除するよりも、機密情報(caliskan et al., 2017; sun et al., 2019)を使うべきだと論じている。
本研究は,(1)タスクに有用でない場合,センシティブな情報を無視すること,(2)予測に必要最小限の情報を(ペナルティを負うことなく)使用すること,の予測モデルの信念を調整することにより,新たなデバイアスアルゴリズムを提案する。
2つのテキスト分類タスク(性別の影響)とオープン・エンド・ジェネレーションタスク(人種の影響)の実験結果から,このモデルがデバイアスとタスクパフォーマンスのトレードオフを達成し,デバイアスの有理性を証拠として生み出すことを示す。
関連論文リスト
- Unlabeled Debiasing in Downstream Tasks via Class-wise Low Variance Regularization [13.773597081543185]
本稿では,組込みのクラスワイドな分散に基づく新しいデバイアス正規化手法を提案する。
提案手法は属性ラベルを必要とせず,属性をターゲットとせず,既存のデバイアス手法の欠点に対処する。
論文 参考訳(メタデータ) (2024-09-29T03:56:50Z) - Is There a One-Model-Fits-All Approach to Information Extraction? Revisiting Task Definition Biases [62.806300074459116]
定義バイアスは、モデルを誤解させる可能性のある負の現象である。
IEでは、情報抽出データセット間のバイアスと、情報抽出データセットとインストラクションチューニングデータセット間のバイアスの2つの定義バイアスを識別する。
本稿では, 定義バイアス測定, バイアス対応微調整, タスク固有バイアス緩和からなる多段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-25T03:19:20Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Targeted Data Augmentation for bias mitigation [0.0]
我々は、TDA(Targeted Data Augmentation)と呼ばれるバイアスに対処するための、新しく効率的なアプローチを導入する。
バイアスを除去する面倒な作業とは異なり、本手法は代わりにバイアスを挿入することを提案し、結果として性能が向上する。
偏見を特定するために,臨床皮膚病変のデータセットと男女の顔のデータセットの2つの多様なデータセットを注釈した。
論文 参考訳(メタデータ) (2023-08-22T12:25:49Z) - Fair Visual Recognition via Intervention with Proxy Features [13.280828458515062]
既存の作業は、デバイアスのモデルにおける社会的属性に関する情報を最小限にする。
目標タスクと社会的属性の高相関は、目標タスクの精度とバイアス軽減を両立させる。
本稿では,まず,対象タスクのバイアス情報の学習をバイアス特徴から人工的プロキシ特徴に伝達し,推論におけるプロキシ特徴の排除に因果的介入を適用することを提案する。
論文 参考訳(メタデータ) (2022-11-02T16:33:49Z) - InterFair: Debiasing with Natural Language Feedback for Fair
Interpretable Predictions [30.246111670391375]
我々は、視覚的に排除するのではなく、機密情報を「公正に」使うのが好ましいと論じている。
凍結予測モデルを用いて2つのインタラクティブなセットアップを探索し、フィードバックをユーザに提供することで、タスクのパフォーマンスとバイアス軽減のバランスがより良く、より公平になることを示す。
論文 参考訳(メタデータ) (2022-10-14T00:54:12Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。