論文の概要: Sociodemographic Bias in Language Models: A Survey and Forward Path
- arxiv url: http://arxiv.org/abs/2306.08158v4
- Date: Fri, 1 Mar 2024 17:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 20:53:40.530108
- Title: Sociodemographic Bias in Language Models: A Survey and Forward Path
- Title(参考訳): 言語モデルにおける社会デモグラフィバイアス:調査と前進経路
- Authors: Vipul Gupta, Pranav Narayanan Venkit, Shomir Wilson, Rebecca J.
Passonneau
- Abstract要約: 我々は,既存の文献を,バイアスの種類,偏見の定量化,偏見の手法の3つの分野に体系的に分類する。
バイアス研究における現在の傾向、限界、および潜在的将来方向を特定します。
我々は、LMバイアスに関する作業と潜在的な害の理解を組み合わせるために、学際的アプローチを使うことを推奨する。
- 参考スコア(独自算出の注目度): 8.01539480296785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comprehensive survey of work on sociodemographic bias
in language models (LMs). Sociodemographic biases embedded within language
models can have harmful effects when deployed in real-world settings. We
systematically organize the existing literature into three main areas: types of
bias, quantifying bias, and debiasing techniques. We also track the evolution
of investigations of LM bias over the past decade. We identify current trends,
limitations, and potential future directions in bias research. To guide future
research towards more effective and reliable solutions, we present a checklist
of open questions. We also recommend using interdisciplinary approaches to
combine works on LM bias with an understanding of the potential harms.
- Abstract(参考訳): 本稿では,言語モデル(LM)における社会デマトグラフィーバイアスに関する研究を包括的に調査する。
言語モデルに埋め込まれたソシオデマトグラフィーバイアスは、現実世界の環境に展開する際に有害な効果をもたらす可能性がある。
我々は,既存の文献を,バイアスの種類,偏見の定量化,偏見の手法の3つの分野に体系的に分類する。
我々はまた、過去10年間のlmバイアスの調査の進化を追跡している。
我々はバイアス研究における現在の傾向、限界、および潜在的将来方向を特定する。
より効果的で信頼性の高いソリューションに向けた今後の研究を導くため、オープンな質問のチェックリストを提示する。
また、学際的アプローチを用いて、LMバイアスに関する作業と潜在的な害の理解を組み合わせることを推奨する。
関連論文リスト
- The Media Bias Taxonomy: A Systematic Literature Review on the Forms and
Automated Detection of Media Bias [5.579028648465784]
本稿は、2019年から2022年の間に発行された3140の論文を体系的にレビューし、メディアバイアスを検出するための計算方法の研究を要約する。
メディアバイアス検出は,近年,トランスフォーマーに基づく分類手法が顕著な進歩をもたらしている,非常に活発な研究分野であることを示す。
論文 参考訳(メタデータ) (2023-12-26T18:13:52Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Diagnosing and Debiasing Corpus-Based Political Bias and Insults in GPT2 [0.0]
大規模な言語モデル (LLMs) をインターネットから流出した未フィルタリングコーパスでトレーニングすることは、一般的で有利なプラクティスである。
近年の研究では、生成事前学習型トランスフォーマー(GPT)言語モデルが、自身のバイアスを認識し、生成されたコンテンツの毒性を検出することが示されている。
本研究は、侮辱と政治的偏見の2つの追加的なバイアスを緩和する診断・偏見的アプローチの有効性について検討した。
論文 参考訳(メタデータ) (2023-11-17T01:20:08Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - A survey on bias in machine learning research [0.0]
機械学習におけるバイアスに関する現在の研究は、しばしば公正に焦点を当て、バイアスの根源や原因を見下ろしている。
本稿は、データやモデルにおけるバイアスやエラーの潜在的な源として分類を提供することによって、研究におけるバイアスに関する過去の文献間のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2023-08-22T07:56:57Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Towards an Enhanced Understanding of Bias in Pre-trained Neural Language
Models: A Survey with Special Emphasis on Affective Bias [2.6304695993930594]
本稿では,大規模な事前学習言語モデルにおけるバイアスの理解,それらの発生ステージの分析,およびこれらのバイアスを定量化し緩和する様々な方法を提案する。
ビジネス,医療,教育などの実世界のシステムにおいて,テキストによる情緒的コンピューティングに基づく下流作業の幅広い適用性を考慮すると,感情(感情)の文脈における偏見(感情)、すなわち感情的バイアス(Affective Bias)の探究に特に重点を置いている。
本稿では,将来の研究を支援する各種バイアス評価コーパスの概要と,事前学習言語モデルにおけるバイアス研究の課題について述べる。
論文 参考訳(メタデータ) (2022-04-21T18:51:19Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。