論文の概要: On Bias and Fairness in NLP: How to have a fairer text classification?
- arxiv url: http://arxiv.org/abs/2305.12829v2
- Date: Wed, 31 May 2023 10:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 02:09:42.127834
- Title: On Bias and Fairness in NLP: How to have a fairer text classification?
- Title(参考訳): NLPにおけるバイアスと公平性について:より公平なテキスト分類の方法?
- Authors: Fatma Elsafoury, Stamos Katsigiannis, Naeem Ramzan
- Abstract要約: 過剰増幅バイアスは、テキスト分類の公平性に最も影響のあるバイアスである。
本研究は,本研究の成果に基づいて,より公平なテキスト分類モデルを構築するための実践的ガイドラインを導入する。
- 参考スコア(独自算出の注目度): 4.22187135718126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we provide a holistic analysis of the different sources of
bias, Upstream, Sample and Overampflication biases, in NLP models. We
investigate how they impact the fairness of the task of text classification. We
also investigate the impact of removing these biases using different debiasing
techniques on the fairness of text classification. We found that
overamplification bias is the most impactful bias on the fairness of text
classification. And that removing overamplification bias by fine-tuning the LM
models on a dataset with balanced representations of the different identity
groups leads to fairer text classification models. Finally, we build on our
findings and introduce practical guidelines on how to have a fairer text
classification model.
- Abstract(参考訳): 本稿では,NLPモデルにおける様々なバイアス源,アップストリーム,サンプル,オーバーアンプリケーションのバイアスの包括的解析を行う。
テキスト分類の課題の公平性にどのように影響するかを検討する。
また,テキスト分類の公平性に及ぼすバイアス除去の影響についても検討した。
オーバーアンプリフィケーションバイアスはテキスト分類の公平性に最も影響のあるバイアスであることがわかった。
そして、異なるアイデンティティグループのバランスの取れた表現でデータセット上でLMモデルを微調整することで、過剰増幅バイアスを取り除くことで、より公平なテキスト分類モデルが得られる。
最後に,本研究の成果に基づいて,より公平なテキスト分類モデルを構築するための実践的ガイドラインを導入する。
関連論文リスト
- GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Fair Abstractive Summarization of Diverse Perspectives [105.6028424227222]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
そこで本研究では,対象視点と対象視点の差を計測する4つの基準フリー自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Gender Bias in News Summarization: Measures, Pitfalls and Corpora [5.8088738147746914]
本稿では,要約モデルにおけるバイアス付き行動の定義と実用運用について紹介する。
本稿では,階層属性を慎重に制御した入力文書を生成する手法を提案する。
目的合成モデルと汎用チャットモデルの両方で生成された英語要約における性別バイアスを測定する。
論文 参考訳(メタデータ) (2023-09-14T22:20:27Z) - Debiasing Stance Detection Models with Counterfactual Reasoning and
Adversarial Bias Learning [15.68462203989933]
スタンス検出モデルは、ショートカットとしてテキスト部分のデータセットバイアスに依存する傾向がある。
より正確にバイアスをモデル化するための逆バイアス学習モジュールを提案する。
論文 参考訳(メタデータ) (2022-12-20T16:20:56Z) - Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation [35.2494622378896]
絶対バイアス分類”が有望な目標かどうかを問う。
偏見のない文章と偏見のないテキストが主観的であるかどうかを判定する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
論文 参考訳(メタデータ) (2022-10-13T12:48:07Z) - Improving Evaluation of Debiasing in Image Classification [29.711865666774017]
本研究は,画像分類におけるデバイアス評価を行う際には,いくつかの課題を解決する必要があることを示唆する。
このような問題に基づいて,チューニング基準に対する評価基準であるAlign-Conflict(AC)スコアを提案する。
われわれの発見と教訓は、未来の研究者に偏見を刺激し、最先端のパフォーマンスをさらに押し上げ、公正な比較を行うことを信じている。
論文 参考訳(メタデータ) (2022-06-08T05:24:13Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。