論文の概要: Handling Bias in Toxic Speech Detection: A Survey
- arxiv url: http://arxiv.org/abs/2202.00126v3
- Date: Sun, 15 Jan 2023 14:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:36:40.678688
- Title: Handling Bias in Toxic Speech Detection: A Survey
- Title(参考訳): 有毒音声検出におけるバイアスの取り扱い:調査
- Authors: Tanmay Garg, Sarah Masud, Tharun Suresh, Tanmoy Chakraborty
- Abstract要約: 本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
- 参考スコア(独自算出の注目度): 26.176340438312376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting online toxicity has always been a challenge due to its inherent
subjectivity. Factors such as the context, geography, socio-political climate,
and background of the producers and consumers of the posts play a crucial role
in determining if the content can be flagged as toxic. Adoption of automated
toxicity detection models in production can thus lead to a sidelining of the
various groups they aim to help in the first place. It has piqued researchers'
interest in examining unintended biases and their mitigation. Due to the
nascent and multi-faceted nature of the work, complete literature is chaotic in
its terminologies, techniques, and findings. In this paper, we put together a
systematic study of the limitations and challenges of existing methods for
mitigating bias in toxicity detection.
We look closely at proposed methods for evaluating and mitigating bias in
toxic speech detection. To examine the limitations of existing methods, we also
conduct a case study to introduce the concept of bias shift due to
knowledge-based bias mitigation. The survey concludes with an overview of the
critical challenges, research gaps, and future directions. While reducing
toxicity on online platforms continues to be an active area of research, a
systematic study of various biases and their mitigation strategies will help
the research community produce robust and fair models.
- Abstract(参考訳): オンライン毒性の検出は、その本質的な主観性から常に課題となっている。
コンテクスト、地理、社会政治的気候、ポストのプロデューサーや消費者の背景といった要因は、コンテンツが有毒であるかどうかを決定する上で重要な役割を担っている。
自動毒性検出モデルの導入は、そもそも彼らが支援しようとしている様々なグループのサイドラインに繋がる可能性がある。
意図しないバイアスとその緩和を調べる研究者の関心を遠ざけている。
作品の鮮やかな多面的な性質から、完全な文学はその用語、技法、発見においてカオス的である。
本稿では,毒性検出のバイアス軽減のための既存手法の限界と課題について,系統的研究を行った。
有毒音声検出におけるバイアスの評価と軽減のための提案手法について考察する。
また,既存の手法の限界を検討するために,知識に基づくバイアス緩和によるバイアスシフトの概念を紹介するケーススタディも実施する。
調査結果は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくる。
オンラインプラットフォームにおける毒性の低減は研究の活発な領域であり続けているが、様々なバイアスとその緩和戦略の体系的研究は、研究コミュニティが堅牢で公正なモデルを作成するのに役立つだろう。
関連論文リスト
- Bias in Large Language Models: Origin, Evaluation, and Mitigation [4.606140332500086]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、バイアスへの感受性は大きな課題となっている。
本総説では, LLMの発端から現在の緩和戦略まで, バイアスの背景を概観する。
偏りのあるLLMの倫理的および法的含意について論じ、医療や刑事司法のような現実の応用における潜在的な害を強調した。
論文 参考訳(メタデータ) (2024-11-16T23:54:53Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - A Taxonomy of Rater Disagreements: Surveying Challenges & Opportunities
from the Perspective of Annotating Online Toxicity [15.23055494327071]
Toxicityは、オンライン空間でますます一般的で深刻な問題になっている。
機械学習の研究の豊富な行は、オンライン毒性を計算的に検出し緩和することに焦点を当てている。
近年の研究では,本課題の主観的性質を考慮した会計の重要性が指摘されている。
論文 参考訳(メタデータ) (2023-11-07T21:00:51Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。