論文の概要: To Bias or Not to Bias: Detecting bias in News with bias-detector
- arxiv url: http://arxiv.org/abs/2505.13010v1
- Date: Mon, 19 May 2025 11:54:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.571902
- Title: To Bias or Not to Bias: Detecting bias in News with bias-detector
- Title(参考訳): To Bias or Not to Bias: バイアス検出によるニュースのバイアス検出
- Authors: Himel Ghosh, Ahmed Mosharafa, Georg Groh,
- Abstract要約: 我々は、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することで、文レベルのバイアス分類を行う。
本稿では,ドメイン適応型DA-RoBERTaベースラインとの比較において,統計的に有意な性能向上を示す。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
- 参考スコア(独自算出の注目度): 1.8024397171920885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Media bias detection is a critical task in ensuring fair and balanced information dissemination, yet it remains challenging due to the subjectivity of bias and the scarcity of high-quality annotated data. In this work, we perform sentence-level bias classification by fine-tuning a RoBERTa-based model on the expert-annotated BABE dataset. Using McNemar's test and the 5x2 cross-validation paired t-test, we show statistically significant improvements in performance when comparing our model to a domain-adaptively pre-trained DA-RoBERTa baseline. Furthermore, attention-based analysis shows that our model avoids common pitfalls like oversensitivity to politically charged terms and instead attends more meaningfully to contextually relevant tokens. For a comprehensive examination of media bias, we present a pipeline that combines our model with an already-existing bias-type classifier. Our method exhibits good generalization and interpretability, despite being constrained by sentence-level analysis and dataset size because of a lack of larger and more advanced bias corpora. We talk about context-aware modeling, bias neutralization, and advanced bias type classification as potential future directions. Our findings contribute to building more robust, explainable, and socially responsible NLP systems for media bias detection.
- Abstract(参考訳): メディアバイアス検出は、公平かつバランスの取れた情報の拡散を保証する上で重要な課題であるが、偏見の主観性と高品質な注釈付きデータの不足のため、依然として困難である。
本研究では、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することにより、文レベルのバイアス分類を行う。
McNemar テストと 5x2 クロスバリデーションペア t-test を用いて,本モデルとドメイン適応型 DA-RoBERTa ベースラインを比較し,統計的に有意な性能向上を示した。
さらに、注意に基づく分析により、我々のモデルは、政治的に課金された用語に対する過敏性のような共通の落とし穴を回避し、文脈的に関係のあるトークンにより有意義に出席することを示す。
メディアバイアスの包括的検討のために,すでに存在するバイアス型分類器をモデルと組み合わせたパイプラインを提案する。
本手法は,より大規模で高度なバイアスコーパスが欠如していることから,文レベル解析やデータセットサイズに制約されているにもかかわらず,優れた一般化と解釈性を示す。
我々は、将来的な方向性としてコンテキスト認識モデリング、バイアス中立化、先進バイアス型分類について論じる。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
関連論文リスト
- Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本研究は,偏りと偏りの一致したサンプルを正確に予測することの重要性を示す。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Unsupervised Learning of Unbiased Visual Representations [12.690228982893]
ディープニューラルネットワークは、データセットバイアスの存在下で堅牢な表現を学ぶのに苦労することが多い。
この問題に対処するための既存のアプローチは、一般的にバイアス属性の明示的な監督、あるいはバイアスに関する事前の知識への依存を含む。
我々は3つの重要なステップを持つ完全に教師なしのデバイアス・フレームワークを提示する。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。