論文の概要: Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP
- arxiv url: http://arxiv.org/abs/2302.05711v1
- Date: Sat, 11 Feb 2023 14:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 19:00:51.858186
- Title: Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP
- Title(参考訳): Fair Enough:NLPにおけるフェアネス研究の標準化とモデル選択
- Authors: Xudong Han, Timothy Baldwin, Trevor Cohn
- Abstract要約: 現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
- 参考スコア(独自算出の注目度): 64.45845091719002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern NLP systems exhibit a range of biases, which a growing literature on
model debiasing attempts to correct. However current progress is hampered by a
plurality of definitions of bias, means of quantification, and oftentimes vague
relation between debiasing algorithms and theoretical measures of bias. This
paper seeks to clarify the current situation and plot a course for meaningful
progress in fair learning, with two key contributions: (1) making clear
inter-relations among the current gamut of methods, and their relation to
fairness theory; and (2) addressing the practical problem of model selection,
which involves a trade-off between fairness and accuracy and has led to
systemic issues in fairness research. Putting them together, we make several
recommendations to help shape future work.
- Abstract(参考訳): 現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
しかし、現在の進歩は、複数のバイアスの定義、定量化の手段によって妨げられ、デバイアスアルゴリズムと理論的バイアスの尺度の間の曖昧な関係がしばしば発生する。
本稿は, 公平性と正確性とのトレードオフを伴うモデル選択の実際的問題に対処し, 公平性研究の体系的問題に繋がる2つの重要な貢献を伴い, 現状を明らかにし, 公平性学習の有意義な進展に向けた進路を立案することを目的とする。
それらをまとめて、将来の仕事を形成するためのいくつかの推奨事項を作ります。
関連論文リスト
- A Critical Review of Predominant Bias in Neural Networks [19.555188118439883]
この2つのバイアスには、永続的で、広範囲にまたがるが、未調査の混乱が存在することが分かりました。
これら2つの偏りの数学的定義を2つ提供し、これらの定義を活用して総合的な論文リストを統一することにより、明確さの回復を目指す。
論文 参考訳(メタデータ) (2025-02-16T07:55:19Z) - On the Interplay between Fairness and Explainability [28.37896468795247]
公平さと説明責任が相互にどのように影響するかを理解するための最初の研究を行う。
バイアス軽減のためのいくつかの手法を用いて、事前学習した言語モデルを微調整する。
バイアス緩和アルゴリズムは必ずしもより公平なモデルに繋がらない。
論文 参考訳(メタデータ) (2023-10-25T12:59:51Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Measure Twice, Cut Once: Quantifying Bias and Fairness in Deep Neural
Networks [7.763173131630868]
本稿では,2つのモデルのクラスワイドバイアスを定量的に評価する2つの指標を提案する。
これらの新しいメトリクスのパフォーマンスを評価し、その実践的応用を実証することにより、公平性だけでなくバイアスも測定できることを示す。
論文 参考訳(メタデータ) (2021-10-08T22:35:34Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。