論文の概要: To Bias or Not to Bias: Detecting bias in News with bias-detector
- arxiv url: http://arxiv.org/abs/2505.13010v1
- Date: Mon, 19 May 2025 11:54:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.571902
- Title: To Bias or Not to Bias: Detecting bias in News with bias-detector
- Title(参考訳): To Bias or Not to Bias: バイアス検出によるニュースのバイアス検出
- Authors: Himel Ghosh, Ahmed Mosharafa, Georg Groh,
- Abstract要約: 我々は、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することで、文レベルのバイアス分類を行う。
本稿では,ドメイン適応型DA-RoBERTaベースラインとの比較において,統計的に有意な性能向上を示す。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
- 参考スコア(独自算出の注目度): 1.8024397171920885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Media bias detection is a critical task in ensuring fair and balanced information dissemination, yet it remains challenging due to the subjectivity of bias and the scarcity of high-quality annotated data. In this work, we perform sentence-level bias classification by fine-tuning a RoBERTa-based model on the expert-annotated BABE dataset. Using McNemar's test and the 5x2 cross-validation paired t-test, we show statistically significant improvements in performance when comparing our model to a domain-adaptively pre-trained DA-RoBERTa baseline. Furthermore, attention-based analysis shows that our model avoids common pitfalls like oversensitivity to politically charged terms and instead attends more meaningfully to contextually relevant tokens. For a comprehensive examination of media bias, we present a pipeline that combines our model with an already-existing bias-type classifier. Our method exhibits good generalization and interpretability, despite being constrained by sentence-level analysis and dataset size because of a lack of larger and more advanced bias corpora. We talk about context-aware modeling, bias neutralization, and advanced bias type classification as potential future directions. Our findings contribute to building more robust, explainable, and socially responsible NLP systems for media bias detection.
- Abstract(参考訳): メディアバイアス検出は、公平かつバランスの取れた情報の拡散を保証する上で重要な課題であるが、偏見の主観性と高品質な注釈付きデータの不足のため、依然として困難である。
本研究では、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することにより、文レベルのバイアス分類を行う。
McNemar テストと 5x2 クロスバリデーションペア t-test を用いて,本モデルとドメイン適応型 DA-RoBERTa ベースラインを比較し,統計的に有意な性能向上を示した。
さらに、注意に基づく分析により、我々のモデルは、政治的に課金された用語に対する過敏性のような共通の落とし穴を回避し、文脈的に関係のあるトークンにより有意義に出席することを示す。
メディアバイアスの包括的検討のために,すでに存在するバイアス型分類器をモデルと組み合わせたパイプラインを提案する。
本手法は,より大規模で高度なバイアスコーパスが欠如していることから,文レベル解析やデータセットサイズに制約されているにもかかわらず,優れた一般化と解釈性を示す。
我々は、将来的な方向性としてコンテキスト認識モデリング、バイアス中立化、先進バイアス型分類について論じる。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
関連論文リスト
- How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本研究は,偏りと偏りの一致したサンプルを正確に予測することの重要性を示す。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Towards Understanding Task-agnostic Debiasing Through the Lenses of Intrinsic Bias and Forgetfulness [10.081447621656523]
言語モデリング能力に影響を及ぼす影響は、高品質でコンテキストの長いデバイアスコーパスによって緩和することができる。
タスク依存型デバイアスングヒンジの有効性は、下流アプリケーションに使用されるタスク固有データとデバイアスドモデルの両方の量的バイアスレベルに影響を及ぼす。
本稿では,ソーシャル・フェア・デバイアスを下流ファインチューニング,ProSocialTuningに伝達する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-06T15:11:11Z) - Medical Image Debiasing by Learning Adaptive Agreement from a Biased
Council [8.530912655468645]
ディープラーニングは、データセットバイアスによって得られたショートカットを学習する傾向があります。
その重要性にもかかわらず、データセットバイアスに対処する医療画像分類領域では、多くの研究が行われている。
本稿では,バイアスラベルに依存しないバイアス緩和フレームワークであるバイアスド・カウンシル(Ada-ABC)からの学習適応合意を提案する。
論文 参考訳(メタデータ) (2024-01-22T06:29:52Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Unsupervised Learning of Unbiased Visual Representations [12.690228982893]
ディープニューラルネットワークは、データセットバイアスの存在下で堅牢な表現を学ぶのに苦労することが多い。
この問題に対処するための既存のアプローチは、一般的にバイアス属性の明示的な監督、あるいはバイアスに関する事前の知識への依存を含む。
我々は3つの重要なステップを持つ完全に教師なしのデバイアス・フレームワークを提示する。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。