論文の概要: On the Origins of Bias in NLP through the Lens of the Jim Code
- arxiv url: http://arxiv.org/abs/2305.09281v1
- Date: Tue, 16 May 2023 08:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:34:14.335087
- Title: On the Origins of Bias in NLP through the Lens of the Jim Code
- Title(参考訳): ジム符号のレンズによるNLPのバイアスの起源について
- Authors: Fatma Elsafoury, Gavin Abercrombie
- Abstract要約: 我々は、現在の自然言語処理(NLP)モデルにおけるバイアスを、過去500年間の人種差別、性差別、ホモフォビアの起源にまで遡る。
NLPパイプラインのバイアスの原因が社会問題にどのように根ざしているかを示す。
- 参考スコア(独自算出の注目度): 1.256413718364189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we trace the biases in current natural language processing
(NLP) models back to their origins in racism, sexism, and homophobia over the
last 500 years. We review literature from critical race theory, gender studies,
data ethics, and digital humanities studies, and summarize the origins of bias
in NLP models from these social science perspective. We show how the causes of
the biases in the NLP pipeline are rooted in social issues. Finally, we argue
that the only way to fix the bias and unfairness in NLP is by addressing the
social problems that caused them in the first place and by incorporating social
sciences and social scientists in efforts to mitigate bias in NLP models. We
provide actionable recommendations for the NLP research community to do so.
- Abstract(参考訳): 本稿では,現在の自然言語処理(NLP)モデルにおけるバイアスを,過去500年間の人種差別,性差別,ホモフォビアの起源に遡る。
我々は,批判的人種理論,ジェンダー研究,データ倫理学,デジタル人文科学研究の文献をレビューし,これらの社会科学の観点からnlpモデルにおけるバイアスの起源を要約する。
NLPパイプラインのバイアスの原因が社会問題にどのように根ざしているかを示す。
最後に、NLPのバイアスと不公平性を修正する唯一の方法は、そもそもそれらを引き起こした社会問題に対処し、NLPモデルにおけるバイアスを軽減するために社会科学や社会科学者を取り入れることである。
我々は,nlp研究コミュニティに対して,行動可能な勧告を行う。
関連論文リスト
- The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Thesis Distillation: Investigating The Impact of Bias in NLP Models on
Hate Speech Detection [6.2548734896918505]
本論文は私の博士論文における研究成果の要約である。
NLPモデルにおけるバイアスがヘイトスピーチ検出の課題に与える影響を3つの観点から検討する。
論文 参考訳(メタデータ) (2023-08-31T08:40:41Z) - Beyond Good Intentions: Reporting the Research Landscape of NLP for
Social Good [115.1507728564964]
NLP4SG Papersは3つのタスクを関連づけた科学データセットである。
これらのタスクはNLP4SGの論文を特定し、NLP4SGのランドスケープを特徴付けるのに役立つ。
現状のNLPモデルを用いてこれらのタスクに対処し、ACLアンソロジー全体においてそれらを使用する。
論文 参考訳(メタデータ) (2023-05-09T14:16:25Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - Towards an Enhanced Understanding of Bias in Pre-trained Neural Language
Models: A Survey with Special Emphasis on Affective Bias [2.6304695993930594]
本稿では,大規模な事前学習言語モデルにおけるバイアスの理解,それらの発生ステージの分析,およびこれらのバイアスを定量化し緩和する様々な方法を提案する。
ビジネス,医療,教育などの実世界のシステムにおいて,テキストによる情緒的コンピューティングに基づく下流作業の幅広い適用性を考慮すると,感情(感情)の文脈における偏見(感情)、すなわち感情的バイアス(Affective Bias)の探究に特に重点を置いている。
本稿では,将来の研究を支援する各種バイアス評価コーパスの概要と,事前学習言語モデルにおけるバイアス研究の課題について述べる。
論文 参考訳(メタデータ) (2022-04-21T18:51:19Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - Argument from Old Man's View: Assessing Social Bias in Argumentation [20.65183968971417]
言語における社会的バイアスは多くのNLPアプリケーションに倫理的影響をもたらす。
最近の研究では、各データに基づいてトレーニングされた機械学習モデルが採用されるだけでなく、バイアスを増幅する可能性があることが示されている。
大規模な英語討論ポータルにおける社会的偏見の存在について検討する。
論文 参考訳(メタデータ) (2020-11-24T10:39:44Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Language (Technology) is Power: A Critical Survey of "Bias" in NLP [11.221552724154986]
NLPシステムにおける「バイアス」を解析する146の論文を調査した。
彼らのモチベーションは曖昧で、一貫性がなく、規範的推論に欠けていることが分かりました。
NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案する。
論文 参考訳(メタデータ) (2020-05-28T14:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。