論文の概要: On Bias and Fairness in NLP: How to have a fairer text classification?
- arxiv url: http://arxiv.org/abs/2305.12829v1
- Date: Mon, 22 May 2023 08:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:19:37.371385
- Title: On Bias and Fairness in NLP: How to have a fairer text classification?
- Title(参考訳): NLPにおけるバイアスと公平性について:より公平なテキスト分類の方法?
- Authors: Fatma Elsafoury, Stamos Katsigiannis, Naeem Ramzan
- Abstract要約: 過剰増幅バイアスは、テキスト分類の公平性に最も影響のあるバイアスである。
本研究は,本研究の成果に基づいて,より公平なテキスト分類モデルを構築するための実践的ガイドラインを導入する。
- 参考スコア(独自算出の注目度): 4.22187135718126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we provide a holistic analysis of the different sources of
bias, Upstream, Sample and Overampflication biases, in NLP models. We
investigate how they impact the fairness of the task of text classification. We
also investigate the impact of removing these biases using different debiasing
techniques on the fairness of text classification. We found that
overamplification bias is the most impactful bias on the fairness of text
classification. And that removing overamplification bias by fine-tuning the LM
models on a dataset with balanced representations of the different identity
groups leads to fairer text classification models. Finally, we build on our
findings and introduce practical guidelines on how to have a fairer text
classification model.
- Abstract(参考訳): 本稿では,NLPモデルにおける様々なバイアス源,アップストリーム,サンプル,オーバーアンプリケーションのバイアスの包括的解析を行う。
テキスト分類の課題の公平性にどのように影響するかを検討する。
また,テキスト分類の公平性に及ぼすバイアス除去の影響についても検討した。
オーバーアンプリフィケーションバイアスはテキスト分類の公平性に最も影響のあるバイアスであることがわかった。
そして、異なるアイデンティティグループのバランスの取れた表現でデータセット上でLMモデルを微調整することで、過剰増幅バイアスを取り除くことで、より公平なテキスト分類モデルが得られる。
最後に,本研究の成果に基づいて,より公平なテキスト分類モデルを構築するための実践的ガイドラインを導入する。
関連論文リスト
- Explicit vs. Implicit: Investigating Social Bias in Large Language Models through Self-Reflection [5.800102484016876]
大規模言語モデル(LLM)は、生成されたコンテンツに様々なバイアスとステレオタイプを示すことが示されている。
本稿では, LLMにおける明示的, 暗黙的な偏見を解明するために, 社会心理学理論に基づく体系的枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-04T14:08:52Z) - Towards Resource Efficient and Interpretable Bias Mitigation in Large Language Models [1.787433808079955]
大規模言語モデル (LLM) は、学習データにおいて望ましくないバイアスを持続させる。
本稿では,小さなバイアスとアンチバイアスのエキスパートモデルを利用してバイアスを緩和し,デバイアス信号を得る。
性別、人種、宗教の偏見を緩和する実験は、いくつかの地域および世界的な偏見指標に偏見を減少させる。
論文 参考訳(メタデータ) (2024-12-02T16:56:08Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Take its Essence, Discard its Dross! Debiasing for Toxic Language Detection via Counterfactual Causal Effect [23.628565620485364]
有害言語検出(TLD)における語彙バイアスを軽減するために, CCDF(Counterfactal Causal Debiasing Framework)を提案する。
CCDFは語彙バイアスの「無駄な影響」を保ち、「誤解を招く影響」を排除している
論文 参考訳(メタデータ) (2024-06-03T04:34:30Z) - Mitigating Biases for Instruction-following Language Models via Bias Neurons Elimination [54.865941973768905]
本稿では,命令追従設定における言語モデルのバイアスニューロンを除去するための,新しい実用的なバイアス緩和手法であるCRISPRを提案する。
CRISPRは自動的にバイアス出力を決定し、バイアス出力に影響を与えるニューロンを説明可能性法を用いてバイアスニューロンに分類する。
実験により,モデルのタスク性能と既存知識を損なうことなく,ゼロショット命令追従条件下でのバイアス軽減効果が示された。
論文 参考訳(メタデータ) (2023-11-16T07:16:55Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Mind Your Bias: A Critical Review of Bias Detection Methods for
Contextual Language Models [2.170169149901781]
文脈言語モデルに対する厳密な分析とバイアス検出手法の比較を行う。
私たちの結果は、マイナーな設計と実装の決定(またはエラー)が、導出バイアススコアに大きく、しばしば重大な影響を与えていることを示している。
論文 参考訳(メタデータ) (2022-11-15T19:27:54Z) - Towards an Enhanced Understanding of Bias in Pre-trained Neural Language
Models: A Survey with Special Emphasis on Affective Bias [2.6304695993930594]
本稿では,大規模な事前学習言語モデルにおけるバイアスの理解,それらの発生ステージの分析,およびこれらのバイアスを定量化し緩和する様々な方法を提案する。
ビジネス,医療,教育などの実世界のシステムにおいて,テキストによる情緒的コンピューティングに基づく下流作業の幅広い適用性を考慮すると,感情(感情)の文脈における偏見(感情)、すなわち感情的バイアス(Affective Bias)の探究に特に重点を置いている。
本稿では,将来の研究を支援する各種バイアス評価コーパスの概要と,事前学習言語モデルにおけるバイアス研究の課題について述べる。
論文 参考訳(メタデータ) (2022-04-21T18:51:19Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。