論文の概要: Handling Bias in Toxic Speech Detection: A Survey
- arxiv url: http://arxiv.org/abs/2202.00126v2
- Date: Wed, 2 Feb 2022 10:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-06 08:32:50.211246
- Title: Handling Bias in Toxic Speech Detection: A Survey
- Title(参考訳): 有毒音声検出におけるバイアスの取り扱い:調査
- Authors: Tanmay Garg, Sarah Masud, Tharun Suresh, Tanmoy Chakraborty
- Abstract要約: 本稿では,意図しないバイアスを分類するための分類法を開発する。
本稿では,有毒な音声検出におけるバイアスの評価と緩和を行う手法について詳しく検討する。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくられている。
- 参考スコア(独自算出の注目度): 26.176340438312376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The massive growth of social media usage has witnessed a tsunami of online
toxicity in teams of hate speech, abusive posts, cyberbullying, etc. Detecting
online toxicity is challenging due to its inherent subjectivity. Factors such
as the context of the speech, geography, socio-political climate, and
background of the producers and consumers of the posts play a crucial role in
determining if the content can be flagged as toxic. Adoption of automated
toxicity detection models in production can lead to a sidelining of the various
demographic and psychographic groups they aim to help in the first place. It
has piqued researchers' interest in examining unintended biases and their
mitigation. Due to the nascent and multi-faceted nature of the work, complete
literature is chaotic in its terminologies, techniques, and findings. In this
paper, we put together a systematic study to discuss the limitations and
challenges of existing methods.
We start by developing a taxonomy for categorising various unintended biases
and a suite of evaluation metrics proposed to quantify such biases. We take a
closer look at each proposed method for evaluating and mitigating bias in toxic
speech detection. To examine the limitations of existing methods, we also
conduct a case study to introduce the concept of bias shift due to
knowledge-based bias mitigation methods. The survey concludes with an overview
of the critical challenges, research gaps and future directions. While reducing
toxicity on online platforms continues to be an active area of research, a
systematic study of various biases and their mitigation strategies will help
the research community produce robust and fair models.
- Abstract(参考訳): ソーシャルメディア利用の膨大な増加は、ヘイトスピーチ、虐待的投稿、サイバーいじめなどのチームのオンライン毒性の津波を目撃している。
オンライン毒性の検出は、その本質的な主観性から困難である。
言論の文脈、地理、社会政治の気候、ポストのプロデューサーや消費者の背景といった要因は、コンテンツが有毒であるかどうかを決定する上で重要な役割を果たす。
自動毒性検出モデルが生産に採用されると、彼らが最初に支援しようとしている様々な人口層や心理病集団の側面に繋がる可能性がある。
意図しないバイアスとその緩和を調べる研究者の関心を遠ざけている。
作品の鮮やかな多面的な性質から、完全な文学はその用語、技法、発見においてカオス的である。
本稿では,既存の手法の限界と課題を議論するために,体系的な研究を行った。
まず、様々な意図しないバイアスを分類する分類法と、これらのバイアスを定量化するために提案される評価指標のスイートを開発する。
有毒音声検出におけるバイアスの評価と軽減のための提案手法について検討した。
また,既存の手法の限界を検討するために,知識に基づくバイアス緩和手法によるバイアスシフトの概念を導入するケーススタディを実施している。
調査結果は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくる。
オンラインプラットフォームにおける毒性の低減は研究の活発な領域であり続けているが、様々なバイアスとその緩和戦略の体系的研究は、研究コミュニティが堅牢で公正なモデルを作成するのに役立つだろう。
関連論文リスト
- Bias in Large Language Models: Origin, Evaluation, and Mitigation [4.606140332500086]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、バイアスへの感受性は大きな課題となっている。
本総説では, LLMの発端から現在の緩和戦略まで, バイアスの背景を概観する。
偏りのあるLLMの倫理的および法的含意について論じ、医療や刑事司法のような現実の応用における潜在的な害を強調した。
論文 参考訳(メタデータ) (2024-11-16T23:54:53Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - A Taxonomy of Rater Disagreements: Surveying Challenges & Opportunities
from the Perspective of Annotating Online Toxicity [15.23055494327071]
Toxicityは、オンライン空間でますます一般的で深刻な問題になっている。
機械学習の研究の豊富な行は、オンライン毒性を計算的に検出し緩和することに焦点を当てている。
近年の研究では,本課題の主観的性質を考慮した会計の重要性が指摘されている。
論文 参考訳(メタデータ) (2023-11-07T21:00:51Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。