論文の概要: Situated Data, Situated Systems: A Methodology to Engage with Power
Relations in Natural Language Processing Research
- arxiv url: http://arxiv.org/abs/2011.05911v1
- Date: Wed, 11 Nov 2020 17:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:08:23.966457
- Title: Situated Data, Situated Systems: A Methodology to Engage with Power
Relations in Natural Language Processing Research
- Title(参考訳): Situated Data, Situated Systems:自然言語処理研究におけるパワーリレーションを用いたエンゲージ手法
- Authors: Lucy Havens, Melissa Terras, Benjamin Bach, Beatrice Alex
- Abstract要約: 本稿では,自然言語処理(NLP)研究におけるパワーリレーションに関わるバイアス対応手法を提案する。
広範囲にわたる学際的な文献レビューの後、我々はNLP研究にバイアス対応の方法論を貢献する。
- 参考スコア(独自算出の注目度): 18.424211072825308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a bias-aware methodology to engage with power relations in natural
language processing (NLP) research. NLP research rarely engages with bias in
social contexts, limiting its ability to mitigate bias. While researchers have
recommended actions, technical methods, and documentation practices, no
methodology exists to integrate critical reflections on bias with technical NLP
methods. In this paper, after an extensive and interdisciplinary literature
review, we contribute a bias-aware methodology for NLP research. We also
contribute a definition of biased text, a discussion of the implications of
biased NLP systems, and a case study demonstrating how we are executing the
bias-aware methodology in research on archival metadata descriptions.
- Abstract(参考訳): 本稿では,自然言語処理(NLP)研究におけるパワーリレーションに関わるバイアス対応手法を提案する。
NLP研究は、社会的文脈におけるバイアスにはほとんど関与せず、バイアスを緩和する能力を制限する。
研究者はアクション、テクニカルメソッド、ドキュメンテーションの実践を推奨しているが、バイアスに関する批判的リフレクションと技術的なnlpメソッドを統合する方法論は存在しない。
本稿では,学際的な文献レビューを行った結果,nlp研究にバイアス認識手法を提案する。
また,偏見付きテキストの定義,偏見付きNLPシステムの影響に関する議論,および考古学的メタデータ記述の研究において偏見対応手法をどのように実行しているかを示す事例研究を行った。
関連論文リスト
- Bias in Large Language Models: Origin, Evaluation, and Mitigation [4.606140332500086]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、バイアスへの感受性は大きな課題となっている。
本総説では, LLMの発端から現在の緩和戦略まで, バイアスの背景を概観する。
偏りのあるLLMの倫理的および法的含意について論じ、医療や刑事司法のような現実の応用における潜在的な害を強調した。
論文 参考訳(メタデータ) (2024-11-16T23:54:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Connecting the Dots in News Analysis: Bridging the Cross-Disciplinary Disparities in Media Bias and Framing [34.41723666603066]
我々は、現在支配的な方法論は、理論的メディア研究において対処される複雑な問題や効果に対処するに足りていないと論じる。
我々はオープンな質問を議論し、理論と予測モデルの間の特定されたギャップを埋めるための可能な方向を提案し、その評価を行う。
論文 参考訳(メタデータ) (2023-09-14T23:57:55Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Application of Transformers based methods in Electronic Medical Records:
A Systematic Literature Review [77.34726150561087]
本研究は,異なるNLPタスクにおける電子カルテ(EMR)のトランスフォーマーに基づく手法を用いて,最先端技術に関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-04-05T22:19:42Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Meta Learning for Natural Language Processing: A Survey [88.58260839196019]
ディープラーニングは自然言語処理(NLP)分野において主要な技術である。
ディープラーニングには多くのラベル付きデータが必要です。
メタ学習は、より良いアルゴリズムを学ぶためのアプローチを研究する機械学習の分野である。
論文 参考訳(メタデータ) (2022-05-03T13:58:38Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Language (Technology) is Power: A Critical Survey of "Bias" in NLP [11.221552724154986]
NLPシステムにおける「バイアス」を解析する146の論文を調査した。
彼らのモチベーションは曖昧で、一貫性がなく、規範的推論に欠けていることが分かりました。
NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案する。
論文 参考訳(メタデータ) (2020-05-28T14:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。