論文の概要: Thesis Distillation: Investigating The Impact of Bias in NLP Models on
Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2308.16549v2
- Date: Tue, 5 Dec 2023 11:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 19:45:44.303521
- Title: Thesis Distillation: Investigating The Impact of Bias in NLP Models on
Hate Speech Detection
- Title(参考訳): 論文蒸留 : NLPモデルにおけるバイアスのヘイトスピーチ検出への影響の検討
- Authors: Fatma Elsafoury
- Abstract要約: 本論文は私の博士論文における研究成果の要約である。
NLPモデルにおけるバイアスがヘイトスピーチ検出の課題に与える影響を3つの観点から検討する。
- 参考スコア(独自算出の注目度): 6.2548734896918505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is a summary of the work done in my PhD thesis. Where I
investigate the impact of bias in NLP models on the task of hate speech
detection from three perspectives: explainability, offensive stereotyping bias,
and fairness. Then, I discuss the main takeaways from my thesis and how they
can benefit the broader NLP community. Finally, I discuss important future
research directions. The findings of my thesis suggest that the bias in NLP
models impacts the task of hate speech detection from all three perspectives.
And that unless we start incorporating social sciences in studying bias in NLP
models, we will not effectively overcome the current limitations of measuring
and mitigating bias in NLP models.
- Abstract(参考訳): 本論文は私の博士論文における業績の概要である。
NLPモデルにおけるバイアスがヘイトスピーチ検出の課題に与える影響について,説明可能性,攻撃的ステレオタイピングバイアス,公平性の3つの視点から検討した。
次に、私の論文からの主な教訓と、より広いnlpコミュニティにどのように貢献できるかについて論じます。
最後に、今後の重要な研究方針について論じる。
その結果,NLPモデルの偏りが3つの視点からヘイトスピーチ検出の課題に影響を与えることが示唆された。
そして、NLPモデルにおけるバイアスの研究に社会科学を取り入れない限り、NLPモデルにおけるバイアスの測定と緩和の現在の限界を効果的に克服することはできません。
関連論文リスト
- Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - On the Origins of Bias in NLP through the Lens of the Jim Code [1.256413718364189]
我々は、現在の自然言語処理(NLP)モデルにおけるバイアスを、過去500年間の人種差別、性差別、ホモフォビアの起源にまで遡る。
NLPパイプラインのバイアスの原因が社会問題にどのように根ざしているかを示す。
論文 参考訳(メタデータ) (2023-05-16T08:37:13Z) - From Pretraining Data to Language Models to Downstream Tasks: Tracking
the Trails of Political Biases Leading to Unfair NLP Models [40.89699305385269]
言語モデル(LM)は、ニュース、ディスカッションフォーラム、書籍、オンライン百科事典など、さまざまなデータソースで事前訓練されている。
我々は、このようなコーパス、社会的、経済的軸に沿って訓練されたLMの政治的偏見を測定するための新しい方法を開発し、政治的偏見を生かしたLMの上に配置する。
我々はヘイトスピーチと誤情報検出に焦点をあて、社会的(社会的、経済的)バイアスが社会的指向のタスクの公平性に及ぼす影響を事前学習する際の効果を実証的に定量化することを目的とする。
論文 参考訳(メタデータ) (2023-05-15T00:06:30Z) - SemEval-2023 Task 11: Learning With Disagreements (LeWiDi) [75.85548747729466]
共有タスクのLeWiDiシリーズの第2版について報告する。
この第2版は幅広い参加者を集め、13のタスクの共用論文が提出された。
論文 参考訳(メタデータ) (2023-04-28T12:20:35Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - Sentiment Analysis Based on Deep Learning: A Comparative Study [69.09570726777817]
世論の研究は我々に貴重な情報を提供することができる。
感情分析の効率性と正確性は、自然言語処理で直面する課題によって妨げられている。
本稿では、感情分析の問題を解決するためにディープラーニングを用いた最新の研究をレビューする。
論文 参考訳(メタデータ) (2020-06-05T16:28:10Z) - Language (Technology) is Power: A Critical Survey of "Bias" in NLP [11.221552724154986]
NLPシステムにおける「バイアス」を解析する146の論文を調査した。
彼らのモチベーションは曖昧で、一貫性がなく、規範的推論に欠けていることが分かりました。
NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案する。
論文 参考訳(メタデータ) (2020-05-28T14:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。