論文の概要: Debiasing NLP Models Without Demographic Information
- arxiv url: http://arxiv.org/abs/2212.10563v1
- Date: Tue, 20 Dec 2022 18:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:04:42.785507
- Title: Debiasing NLP Models Without Demographic Information
- Title(参考訳): デモグラフィック情報のないNLPモデルのデバイアス
- Authors: Hadas Orgad, Yonatan Belinkov
- Abstract要約: 本稿では,データセットの人口統計学に関する事前の知識を使わずに機能する脱バイアス手法を提案する。
人種的および性別的偏見に関する結果は、コストのかかる人口統計学的アノテーションプロセスを用いることなく、社会的偏見を軽減することが可能であることを示している。
- 参考スコア(独自算出の注目度): 29.16221451643288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Models trained from real-world data tend to imitate and amplify social
biases. Although there are many methods suggested to mitigate biases, they
require a preliminary information on the types of biases that should be
mitigated (e.g., gender or racial bias) and the social groups associated with
each data sample. In this work, we propose a debiasing method that operates
without any prior knowledge of the demographics in the dataset, detecting
biased examples based on an auxiliary model that predicts the main model's
success and down-weights them during the training process. Results on racial
and gender bias demonstrate that it is possible to mitigate social biases
without having to use a costly demographic annotation process.
- Abstract(参考訳): 実世界のデータから訓練されたモデルは、社会的バイアスを模倣し増幅する傾向がある。
バイアスを軽減する方法は数多く提案されているが、それらは緩和されるべきバイアスの種類(例えば、性別や人種のバイアス)と各データサンプルに関連する社会的グループについて予備的な情報を必要とする。
本研究では,データセット内の人口統計学の知識をまったく持たずに動作し,主モデルの成功を予測する補助モデルに基づいてバイアス付き例を検出し,トレーニングプロセス中に重み付けを行うデバイアス手法を提案する。
人種バイアスや性別バイアスの結果は、社会的バイアスをコストのかかる分類プロセスを使うことなく軽減できることを示している。
関連論文リスト
- MABR: A Multilayer Adversarial Bias Removal Approach Without Prior Bias Knowledge [6.208151505901749]
実世界のデータに基づいてトレーニングされたモデルは、しばしば既存の社会的バイアスを反映し、悪化させる。
本稿では,従来のバイアス型知識とは独立して機能する,新たな対人訓練戦略を提案する。
本手法は,人口統計学的アノテーションを必要とせずに,社会的バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-08-10T09:11:01Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。