論文の概要: Survey on Sociodemographic Bias in Natural Language Processing
- arxiv url: http://arxiv.org/abs/2306.08158v3
- Date: Tue, 22 Aug 2023 00:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 20:51:06.171884
- Title: Survey on Sociodemographic Bias in Natural Language Processing
- Title(参考訳): 自然言語処理におけるソシオドモグラフィーバイアスの実態調査
- Authors: Vipul Gupta, Pranav Narayanan Venkit, Shomir Wilson, Rebecca J.
Passonneau
- Abstract要約: 本研究は、自然言語処理(NLP)における社会デマトグラフィーバイアスに関連する214の論文を調査する。
NLPバイアス研究の主な3つのカテゴリは、バイアスの種類、定量化バイアス、脱バイアス技術である。
バイアスの定量化に関する現在のアプローチは信頼性の問題に直面しており、バイアス指標の多くは現実のバイアスとは関係がなく、デバイアス技術はトレーニング方法にもっと集中する必要があると結論付けている。
- 参考スコア(独自算出の注目度): 8.01539480296785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often learn unintended bias during training, which might
have harmful effects when deployed in real-world settings. This work surveys
214 papers related to sociodemographic bias in natural language processing
(NLP). In this study, we aim to provide a more comprehensive understanding of
the similarities and differences among approaches to sociodemographic bias in
NLP. To better understand the distinction between bias and real-world harm, we
turn to ideas from psychology and behavioral economics to propose a definition
for sociodemographic bias. We identify three main categories of NLP bias
research: types of bias, quantifying bias, and debiasing techniques. We
highlight the current trends in quantifying bias and debiasing techniques,
offering insights into their strengths and weaknesses. We conclude that current
approaches on quantifying bias face reliability issues, that many of the bias
metrics do not relate to real-world bias, and that debiasing techniques need to
focus more on training methods. Finally, we provide recommendations for future
work.
- Abstract(参考訳): ディープニューラルネットワークは、トレーニング中に意図しないバイアスを学習することが多い。
本研究は、自然言語処理(NLP)における社会デマトグラフィーバイアスに関連する214の論文を調査した。
本研究では,NLPにおける社会デマログラフバイアスに対するアプローチの類似点と相違点をより包括的に理解することを目的とする。
バイアスと現実世界の害の区別をよりよく理解するために、心理学や行動経済学の考え方に転換し、社会的な偏見の定義を提案する。
NLPバイアス研究の主な3つのカテゴリは、バイアスの種類、定量化バイアス、脱バイアス技術である。
バイアスとデバイアステクニックを定量化する現在のトレンドに注目し,その強みと弱みに関する洞察を提供する。
バイアスの定量化に関する現在のアプローチは信頼性の問題に直面しており、バイアス指標の多くは現実のバイアスとは関係がなく、デバイアス技術はトレーニング方法にもっと集中する必要があると結論付けている。
最後に、今後の仕事について推奨する。
関連論文リスト
- Bias in Large Language Models: Origin, Evaluation, and Mitigation [4.606140332500086]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、バイアスへの感受性は大きな課題となっている。
本総説では, LLMの発端から現在の緩和戦略まで, バイアスの背景を概観する。
偏りのあるLLMの倫理的および法的含意について論じ、医療や刑事司法のような現実の応用における潜在的な害を強調した。
論文 参考訳(メタデータ) (2024-11-16T23:54:53Z) - A Comprehensive Survey of Bias in LLMs: Current Landscape and Future Directions [0.0]
大規模言語モデル(LLM)は、前例のないテキスト生成、翻訳、理解能力を提供することで、自然言語処理(NLP)の様々な応用に革命をもたらした。
彼らの広範な展開は、これらのモデルに埋め込まれたバイアスに関して、重大な懸念をもたらしました。
本稿では, LLMにおけるバイアスの包括的調査を行い, これらのバイアスに関するタイプ, ソース, 影響, 緩和戦略について, 広範なレビューを行うことを目的としている。
論文 参考訳(メタデータ) (2024-09-24T19:50:38Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - From Pixels to Insights: A Survey on Automatic Chart Understanding in the Era of Large Foundation Models [98.41645229835493]
グラフ形式のデータの可視化は、データ分析において重要な役割を担い、重要な洞察を提供し、情報的な意思決定を支援する。
大規模言語モデルのような大規模な基盤モデルは、様々な自然言語処理タスクに革命をもたらした。
本研究は,自然言語処理,コンピュータビジョン,データ解析の分野における研究者や実践者の包括的資源として機能する。
論文 参考訳(メタデータ) (2024-03-18T17:57:09Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - This Prompt is Measuring <MASK>: Evaluating Bias Evaluation in Language
Models [12.214260053244871]
言語モデルのバイアスを評価するためにプロンプトとテンプレートを使用する作業の本体を分析します。
我々は、バイアステストが測定する目的を捉える属性の分類を作成するために、測定モデリングフレームワークを設計する。
我々の分析は、フィールドが測定できる可能性のあるバイアスタイプの範囲を照らし、まだ調査されていないタイプを明らかにします。
論文 参考訳(メタデータ) (2023-05-22T06:28:48Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Towards an Enhanced Understanding of Bias in Pre-trained Neural Language
Models: A Survey with Special Emphasis on Affective Bias [2.6304695993930594]
本稿では,大規模な事前学習言語モデルにおけるバイアスの理解,それらの発生ステージの分析,およびこれらのバイアスを定量化し緩和する様々な方法を提案する。
ビジネス,医療,教育などの実世界のシステムにおいて,テキストによる情緒的コンピューティングに基づく下流作業の幅広い適用性を考慮すると,感情(感情)の文脈における偏見(感情)、すなわち感情的バイアス(Affective Bias)の探究に特に重点を置いている。
本稿では,将来の研究を支援する各種バイアス評価コーパスの概要と,事前学習言語モデルにおけるバイアス研究の課題について述べる。
論文 参考訳(メタデータ) (2022-04-21T18:51:19Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。