論文の概要: Handling Bias in Toxic Speech Detection: A Survey
- arxiv url: http://arxiv.org/abs/2202.00126v3
- Date: Sun, 15 Jan 2023 14:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:36:40.678688
- Title: Handling Bias in Toxic Speech Detection: A Survey
- Title(参考訳): 有毒音声検出におけるバイアスの取り扱い:調査
- Authors: Tanmay Garg, Sarah Masud, Tharun Suresh, Tanmoy Chakraborty
- Abstract要約: 本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
- 参考スコア(独自算出の注目度): 26.176340438312376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting online toxicity has always been a challenge due to its inherent
subjectivity. Factors such as the context, geography, socio-political climate,
and background of the producers and consumers of the posts play a crucial role
in determining if the content can be flagged as toxic. Adoption of automated
toxicity detection models in production can thus lead to a sidelining of the
various groups they aim to help in the first place. It has piqued researchers'
interest in examining unintended biases and their mitigation. Due to the
nascent and multi-faceted nature of the work, complete literature is chaotic in
its terminologies, techniques, and findings. In this paper, we put together a
systematic study of the limitations and challenges of existing methods for
mitigating bias in toxicity detection.
We look closely at proposed methods for evaluating and mitigating bias in
toxic speech detection. To examine the limitations of existing methods, we also
conduct a case study to introduce the concept of bias shift due to
knowledge-based bias mitigation. The survey concludes with an overview of the
critical challenges, research gaps, and future directions. While reducing
toxicity on online platforms continues to be an active area of research, a
systematic study of various biases and their mitigation strategies will help
the research community produce robust and fair models.
- Abstract(参考訳): オンライン毒性の検出は、その本質的な主観性から常に課題となっている。
コンテクスト、地理、社会政治的気候、ポストのプロデューサーや消費者の背景といった要因は、コンテンツが有毒であるかどうかを決定する上で重要な役割を担っている。
自動毒性検出モデルの導入は、そもそも彼らが支援しようとしている様々なグループのサイドラインに繋がる可能性がある。
意図しないバイアスとその緩和を調べる研究者の関心を遠ざけている。
作品の鮮やかな多面的な性質から、完全な文学はその用語、技法、発見においてカオス的である。
本稿では,毒性検出のバイアス軽減のための既存手法の限界と課題について,系統的研究を行った。
有毒音声検出におけるバイアスの評価と軽減のための提案手法について考察する。
また,既存の手法の限界を検討するために,知識に基づくバイアス緩和によるバイアスシフトの概念を紹介するケーススタディも実施する。
調査結果は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくる。
オンラインプラットフォームにおける毒性の低減は研究の活発な領域であり続けているが、様々なバイアスとその緩和戦略の体系的研究は、研究コミュニティが堅牢で公正なモデルを作成するのに役立つだろう。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a
Computational Approach [63.67533153887132]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Taxonomy of Rater Disagreements: Surveying Challenges & Opportunities
from the Perspective of Annotating Online Toxicity [15.23055494327071]
Toxicityは、オンライン空間でますます一般的で深刻な問題になっている。
機械学習の研究の豊富な行は、オンライン毒性を計算的に検出し緩和することに焦点を当てている。
近年の研究では,本課題の主観的性質を考慮した会計の重要性が指摘されている。
論文 参考訳(メタデータ) (2023-11-07T21:00:51Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Cross-geographic Bias Detection in Toxicity Modeling [9.128264779870538]
より広い地理的文脈における語彙バイアスを頑健に検出する弱教師付き手法を提案する。
提案手法は, 誤りの正当群を同定し, 続いて, その地理的文脈において, 攻撃的・無害な言語に対する人間の判断を反映していることを示す。
論文 参考訳(メタデータ) (2021-04-14T17:32:05Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。