論文の概要: Fairness-aware Class Imbalanced Learning
- arxiv url: http://arxiv.org/abs/2109.10444v1
- Date: Tue, 21 Sep 2021 22:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 23:09:12.730739
- Title: Fairness-aware Class Imbalanced Learning
- Title(参考訳): 公平なクラス不均衡学習
- Authors: Shivashankar Subramanian, Afshin Rahimi, Timothy Baldwin, Trevor Cohn,
Lea Frermann
- Abstract要約: つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
- 参考スコア(独自算出の注目度): 57.45784950421179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance is a common challenge in many NLP tasks, and has clear
connections to bias, in that bias in training data often leads to higher
accuracy for majority groups at the expense of minority groups. However there
has traditionally been a disconnect between research on class-imbalanced
learning and mitigating bias, and only recently have the two been looked at
through a common lens. In this work we evaluate long-tail learning methods for
tweet sentiment and occupation classification, and extend a margin-loss based
approach with methods to enforce fairness. We empirically show through
controlled experiments that the proposed approaches help mitigate both class
imbalance and demographic biases.
- Abstract(参考訳): クラス不均衡は、多くのNLPタスクにおいて共通の課題であり、訓練データのバイアスが少数派のグループを犠牲にして多数派により高い精度をもたらすというバイアスと明確なつながりを持つ。
しかし、伝統的にクラス不均衡な学習とバイアス緩和の研究の間には隔たりがあり、最近になってこの2つが共通のレンズを通して観察された。
本研究では,ツイート感情と職業分類のロングテール学習法を評価し,公平性を強制する手法を用いてマージンロスベースアプローチを拡張する。
制御された実験を通して、提案手法がクラス不均衡と人口統計バイアスの緩和に役立つことを実証的に示す。
関連論文リスト
- DAFA: Distance-Aware Fair Adversarial Training [34.94780532071229]
敵対的攻撃の下では、最悪のクラスからのサンプルに対するモデルの予測の大半は、最悪のクラスと同様のクラスに偏っている。
本稿では,クラス間の類似性を考慮し,頑健な公正性に対処するDAFA手法を提案する。
論文 参考訳(メタデータ) (2024-01-23T07:15:47Z) - Topological Augmentation for Class-Imbalanced Node Classification [64.20437487896343]
探索下トポロジ中心の視点から,クラス不均衡バイアスの源泉について検討した。
そこで我々は, アンビバシアン/ディスタントメッセージパッシングの影響を受けやすいノードを動的に修正する, 軽量なトポロジカル拡張手法TOBAを考案した。
ToBAはモデルに依存しない、効率的で多用途なソリューションであり、シームレスに組み合わせて、他の不均衡処理技術をさらに促進することができる。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in
Regression Machine Learning Problems [0.0]
回帰問題における不公平さの影響を最小限に抑えるため, 正規化(FaiReg)に基づく簡易かつ効果的な手法を提案する。
本手法を,データバランシングと対向訓練という,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減し、また、元の問題の性能を低下させることなく、優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Measure Twice, Cut Once: Quantifying Bias and Fairness in Deep Neural
Networks [7.763173131630868]
本稿では,2つのモデルのクラスワイドバイアスを定量的に評価する2つの指標を提案する。
これらの新しいメトリクスのパフォーマンスを評価し、その実践的応用を実証することにより、公平性だけでなくバイアスも測定できることを示す。
論文 参考訳(メタデータ) (2021-10-08T22:35:34Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。