論文の概要: Language (Technology) is Power: A Critical Survey of "Bias" in NLP
- arxiv url: http://arxiv.org/abs/2005.14050v2
- Date: Fri, 29 May 2020 16:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:38:11.345825
- Title: Language (Technology) is Power: A Critical Survey of "Bias" in NLP
- Title(参考訳): 言語(技術)は力である:NLPにおける「バイアス」の批判的調査
- Authors: Su Lin Blodgett and Solon Barocas and Hal Daum\'e III and Hanna
Wallach
- Abstract要約: NLPシステムにおける「バイアス」を解析する146の論文を調査した。
彼らのモチベーションは曖昧で、一貫性がなく、規範的推論に欠けていることが分かりました。
NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案する。
- 参考スコア(独自算出の注目度): 11.221552724154986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We survey 146 papers analyzing "bias" in NLP systems, finding that their
motivations are often vague, inconsistent, and lacking in normative reasoning,
despite the fact that analyzing "bias" is an inherently normative process. We
further find that these papers' proposed quantitative techniques for measuring
or mitigating "bias" are poorly matched to their motivations and do not engage
with the relevant literature outside of NLP. Based on these findings, we
describe the beginnings of a path forward by proposing three recommendations
that should guide work analyzing "bias" in NLP systems. These recommendations
rest on a greater recognition of the relationships between language and social
hierarchies, encouraging researchers and practitioners to articulate their
conceptualizations of "bias"---i.e., what kinds of system behaviors are
harmful, in what ways, to whom, and why, as well as the normative reasoning
underlying these statements---and to center work around the lived experiences
of members of communities affected by NLP systems, while interrogating and
reimagining the power relations between technologists and such communities.
- Abstract(参考訳): 我々は、nlpシステムにおける「バイアス」を分析する146の論文を調査し、その動機はしばしば曖昧で一貫性がなく、規範的推論が欠如していることを発見した。
さらに,これらの論文が提案する「バイアス」の測定・緩和のための定量的手法は,そのモチベーションとはあまり一致せず,NLP以外の文献と関係しないことが明らかとなった。
これらの知見に基づき,NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案することにより,進路の始まりについて述べる。
These recommendations rest on a greater recognition of the relationships between language and social hierarchies, encouraging researchers and practitioners to articulate their conceptualizations of "bias"---i.e., what kinds of system behaviors are harmful, in what ways, to whom, and why, as well as the normative reasoning underlying these statements---and to center work around the lived experiences of members of communities affected by NLP systems, while interrogating and reimagining the power relations between technologists and such communities.
関連論文リスト
- Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Undesirable Biases in NLP: Addressing Challenges of Measurement [1.7126708168238125]
我々は,NLPモデルバイアスの問題を心理測定のレンズを用いて議論するための学際的アプローチを提案する。
本研究は, 心理測定, 構成妥当性, 測定ツールの信頼性の2つの中心的な概念について考察する。
我々の目標は、NLP実践者により良いバイアス対策を設計するための方法論ツールを提供することです。
論文 参考訳(メタデータ) (2022-11-24T16:53:18Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - Situated Data, Situated Systems: A Methodology to Engage with Power
Relations in Natural Language Processing Research [18.424211072825308]
本稿では,自然言語処理(NLP)研究におけるパワーリレーションに関わるバイアス対応手法を提案する。
広範囲にわたる学際的な文献レビューの後、我々はNLP研究にバイアス対応の方法論を貢献する。
論文 参考訳(メタデータ) (2020-11-11T17:04:55Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。