論文の概要: A Survey on Bias and Fairness in Natural Language Processing
- arxiv url: http://arxiv.org/abs/2204.09591v1
- Date: Sun, 6 Mar 2022 18:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 23:59:24.920806
- Title: A Survey on Bias and Fairness in Natural Language Processing
- Title(参考訳): 自然言語処理におけるバイアスと公正性に関する調査
- Authors: Rajas Bansal
- Abstract要約: 我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As NLP models become more integrated with the everyday lives of people, it
becomes important to examine the social effect that the usage of these systems
has. While these models understand language and have increased accuracy on
difficult downstream tasks, there is evidence that these models amplify gender,
racial and cultural stereotypes and lead to a vicious cycle in many settings.
In this survey, we analyze the origins of biases, the definitions of fairness,
and how different subfields of NLP mitigate bias. We finally discuss how future
studies can work towards eradicating pernicious biases from NLP algorithms.
- Abstract(参考訳): NLPモデルが人々の日常生活とより統合されるにつれて、これらのシステムが持つ社会的影響を調べることが重要である。
これらのモデルは言語を理解し、難しい下流タスクで精度を高めているが、これらのモデルが性別、人種、文化のステレオタイプを増幅し、多くの設定で悪循環をもたらす証拠がある。
本調査では, バイアスの起源, 公平性の定義, およびNLPのサブフィールドの違いが, バイアスを軽減するかを分析する。
最終的に、NLPアルゴリズムから悪質な偏見を根絶するための今後の研究について論じる。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z) - From Prejudice to Parity: A New Approach to Debiasing Large Language Model Word Embeddings [2.9324535682810886]
DeepSoftDebiasは、ニューラルネットワークを使って'ソフトデバイアス'を実行するアルゴリズム
我々は、このアルゴリズムを様々なSOTAデータセット、精度メトリクス、難解なNLPタスクで徹底的に評価する。
DeepSoftDebiasは、性別、人種、宗教の偏見を減らし、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-18T08:53:41Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Towards an Enhanced Understanding of Bias in Pre-trained Neural Language
Models: A Survey with Special Emphasis on Affective Bias [2.6304695993930594]
本稿では,大規模な事前学習言語モデルにおけるバイアスの理解,それらの発生ステージの分析,およびこれらのバイアスを定量化し緩和する様々な方法を提案する。
ビジネス,医療,教育などの実世界のシステムにおいて,テキストによる情緒的コンピューティングに基づく下流作業の幅広い適用性を考慮すると,感情(感情)の文脈における偏見(感情)、すなわち感情的バイアス(Affective Bias)の探究に特に重点を置いている。
本稿では,将来の研究を支援する各種バイアス評価コーパスの概要と,事前学習言語モデルにおけるバイアス研究の課題について述べる。
論文 参考訳(メタデータ) (2022-04-21T18:51:19Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。