論文の概要: HateDebias: On the Diversity and Variability of Hate Speech Debiasing
- arxiv url: http://arxiv.org/abs/2406.04876v2
- Date: Tue, 26 Aug 2025 03:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.408004
- Title: HateDebias: On the Diversity and Variability of Hate Speech Debiasing
- Title(参考訳): HateDebias:Hate Speech Debiasingの多様性と多様性について
- Authors: Hongyan Wu, Zhengming Chen, Zijian Li, Nankai Lin, Lianxi Wang, Shengyi Jiang, Aimin Yang,
- Abstract要約: ヘイトスピーチはソーシャルメディアプラットフォームに頻繁に現れ、緊急に効果的に制御する必要がある。
動的に進化する環境下でのモデルの公平性を分析するためのベンチマークHateDebiasを提案する。
HateDebiasベンチマーク実験の結果,本手法は実世界のシナリオにおける動的バイアスを軽減し,性能の向上を図っている。
- 参考スコア(独自算出の注目度): 15.749294444303978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hate speech frequently appears on social media platforms and urgently needs to be effectively controlled. Alleviating the bias caused by hate speech can help resolve various ethical issues. Although existing research has constructed several datasets for hate speech detection, these datasets seldom consider the diversity and variability of bias, making them far from real-world scenarios. To fill this gap, we propose a benchmark HateDebias to analyze the fairness of models under dynamically evolving environments. Specifically, to meet the diversity of biases, we collect hate speech data with different types of biases from real-world scenarios. To further simulate the variability in the real-world scenarios(i.e., the changing of bias attributes in datasets), we construct a dataset to follow the continuous learning setting and evaluate the detection accuracy of models on the HateDebias, where performance degradation indicates a significant bias toward a specific attribute. To provide a potential direction, we further propose a continual debiasing framework tailored to dynamic bias in real-world scenarios, integrating memory replay and bias information regularization to ensure the fairness of the model. Experiment results on the HateDebias benchmark reveal that our methods achieve improved performance in mitigating dynamic biases in real-world scenarios, highlighting the practicality in real-world applications.
- Abstract(参考訳): ヘイトスピーチはソーシャルメディアプラットフォームに頻繁に現れ、緊急に効果的に制御する必要がある。
ヘイトスピーチによる偏見を緩和することは、様々な倫理的問題を解決するのに役立つ。
既存の研究はヘイトスピーチ検出のためのいくつかのデータセットを構築しているが、これらのデータセットはバイアスの多様性と多様性をほとんど考慮しておらず、現実のシナリオとはかけ離れている。
このギャップを埋めるために、動的に進化する環境下でのモデルの公平性を分析するベンチマークHateDebiasを提案する。
具体的には、バイアスの多様性を満たすために、現実のシナリオからさまざまな種類のバイアスを持つヘイトスピーチデータを収集する。
実世界のシナリオ(例えばデータセットにおけるバイアス属性の変化)の変動性を更にシミュレートするため、連続的な学習設定に従うデータセットを構築し、HateDebiasのモデルの検出精度を評価し、パフォーマンス劣化は特定の属性に対して有意なバイアスを示す。
さらに,現実のシナリオにおける動的バイアスに合わせた連続的デバイアス化フレームワークを提案し,メモリリプレイとバイアス情報の正規化を統合し,モデルの公平性を確保する。
HateDebiasベンチマークの実験結果から,本手法は実世界のシナリオにおける動的バイアスを軽減し,実世界のアプリケーションにおける実用性を強調した。
関連論文リスト
- CO-VADA: A Confidence-Oriented Voice Augmentation Debiasing Approach for Fair Speech Emotion Recognition [49.27067541740956]
モデルアーキテクチャの変更や人口統計情報への依存を伴わずにバイアスを緩和する信頼性指向音声強調脱バイアス手法であるCO-VADAを提案する。
CO-VADAはトレーニングデータに存在するバイアスパターンを反映したトレーニングサンプルを特定し、無関係な属性を変更してサンプルを生成するために音声変換を適用する。
我々のフレームワークは様々なSERモデルや音声変換ツールと互換性があり、SERシステムの公平性を改善するためのスケーラブルで実用的なソリューションとなっている。
論文 参考訳(メタデータ) (2025-06-06T13:25:56Z) - To Bias or Not to Bias: Detecting bias in News with bias-detector [1.8024397171920885]
我々は、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することで、文レベルのバイアス分類を行う。
本稿では,ドメイン適応型DA-RoBERTaベースラインとの比較において,統計的に有意な性能向上を示す。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
論文 参考訳(メタデータ) (2025-05-19T11:54:39Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - On the Challenges of Building Datasets for Hate Speech Detection [0.0]
我々はまず,データ中心のレンズを用いてヘイトスピーチ検出を取り巻く問題を分析する。
次に、データ生成パイプラインを7つの広範囲にわたってカプセル化する、包括的なフレームワークの概要を示します。
論文 参考訳(メタデータ) (2023-09-06T11:15:47Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Debiasing Stance Detection Models with Counterfactual Reasoning and
Adversarial Bias Learning [15.68462203989933]
スタンス検出モデルは、ショートカットとしてテキスト部分のデータセットバイアスに依存する傾向がある。
より正確にバイアスをモデル化するための逆バイアス学習モジュールを提案する。
論文 参考訳(メタデータ) (2022-12-20T16:20:56Z) - Exploiting Transformer-based Multitask Learning for the Detection of
Media Bias in News Articles [21.960154864540282]
メディアバイアスを検出するために,マルチタスク学習を用いて学習したトランスフォーマーに基づくディープラーニングアーキテクチャを提案する。
我々の最高のパフォーマンス実装は、マクロ$F_1$の0.776を実現しています。
論文 参考訳(メタデータ) (2022-11-07T12:22:31Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Power of Explanations: Towards automatic debiasing in hate speech
detection [19.26084350822197]
ヘイトスピーチ検出は、自然言語処理(NLP)の現実世界における一般的なダウンストリームアプリケーションである。
本稿では,潜在的なバイアスを検出するための説明手法を頼りに,自動誤用検知(MiD)を提案する。
論文 参考訳(メタデータ) (2022-09-07T14:14:03Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Statistical Analysis of Perspective Scores on Hate Speech Detection [7.447951461558536]
最先端のヘイトスピーチ分類器は、トレーニングデータと同じ特徴分布を持つデータ上でテストする場合のみ効率的である。
このような低レベルの特徴に依存する多様なデータ分布は、データの自然なバイアスによる欠如の主な原因である。
異なるヘイトスピーチデータセットは、パースペクティブスコアを抽出するという点では、非常によく似ている。
論文 参考訳(メタデータ) (2021-06-22T17:17:35Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。