論文の概要: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- arxiv url: http://arxiv.org/abs/2310.00347v2
- Date: Sat, 14 Oct 2023 12:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 22:45:18.192887
- Title: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- Title(参考訳): アンロックバイアス検出:コンテンツ分析のためのトランスフォーマーモデルを活用する
- Authors: Shaina Raza, Oluwanifemi Bamgbose, Veronica Chatrath, Shardul Ghuge,
Yan Sidyakin, Abdullah Y Muaad
- Abstract要約: テキストにおけるバイアス検出は、負のステレオタイプ、誤情報、そして決定に影響を与えるために必須である。
これに対し、CBDT(Contextualized Bi-Directional Dual Transformer)を導入する。
CBDTは、偏見と中性ステートメントを区別する能力を示し、正確な偏見のレキセムを指摘している。
- 参考スコア(独自算出の注目度): 1.980639720136382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias detection in text is imperative due to its role in reinforcing negative
stereotypes, disseminating misinformation, and influencing decisions. Current
language models often fall short in generalizing beyond their training sets. In
response, we introduce the Contextualized Bi-Directional Dual Transformer
(CBDT) Classifier. This novel architecture utilizes two synergistic transformer
networks: the Context Transformer and the Entity Transformer, aiming for
enhanced bias detection. Our dataset preparation follows the FAIR principles,
ensuring ethical data usage. Through rigorous testing on various datasets, CBDT
showcases its ability in distinguishing biased from neutral statements, while
also pinpointing exact biased lexemes. Our approach outperforms existing
methods, achieving a 2-4\% increase over benchmark performances. This opens
avenues for adapting the CBDT model across diverse linguistic and cultural
landscapes.
- Abstract(参考訳): テキストにおけるバイアス検出は、負のステレオタイプを強化し、誤報を広め、決定に影響を与えるために必須である。
現在の言語モデルは、トレーニングセットを超えた一般化において不足することが多い。
これに対して,CBDT(Contextualized Bi-Directional Dual Transformer)分類法を提案する。
このアーキテクチャでは、コンテキスト変換器とエンティティ変換器という2つの相乗変換器ネットワークを利用し、バイアス検出の強化を目指している。
データセットの準備は、FAIRの原則に従い、倫理データの使用を保証する。
CBDTは、さまざまなデータセットの厳密なテストを通じて、中立的なステートメントと偏見を区別する能力を示し、正確な偏見を指摘している。
この手法は既存の手法よりも優れており、ベンチマーク性能よりも2-4\%向上している。
これにより、CBDTモデルを様々な言語や文化の風景に適応する道が開ける。
関連論文リスト
- Transformer Language Models Handle Word Frequency in Prediction Head [31.145866381881625]
本研究では,予測ヘッドの内部動作について検討し,特にバイアスパラメータに着目した。
BERT モデルと GPT-2 モデルを用いた実験により,単語予測ヘッドのバイアスがコーパス内の単語周波数を反映する能力に重要な役割を果たすことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-29T17:59:15Z) - All Roads Lead to Rome? Exploring the Invariance of Transformers'
Representations [69.3461199976959]
本稿では, ビジェクション仮説を学習するために, 非可逆ニューラルネットワーク BERT-INN に基づくモデルを提案する。
BERT-INNの利点は理論上も広範な実験を通じても明らかである。
論文 参考訳(メタデータ) (2023-05-23T22:30:43Z) - Latent Positional Information is in the Self-Attention Variance of
Transformer Language Models Without Positional Embeddings [68.61185138897312]
凍結変圧器言語モデルでは,自己意図の分散を縮小することにより,強い位置情報を符号化する。
本研究は, 位置埋め込みを廃止する決定を正当化し, トランスフォーマー言語モデルのより効率的な事前学習を容易にすることに役立つ。
論文 参考訳(メタデータ) (2023-05-23T01:03:40Z) - MisRoB{\AE}RTa: Transformers versus Misinformation [0.6091702876917281]
本稿では,誤情報検出のためのトランスフォーマーに基づくニューラルアンサンブルアーキテクチャを提案する。
MisRobaerTaは、分類性能を改善するために、2つのトランスフォーマー(BARTとRoBERTa)を利用する。
トレーニングとテストのために、私たちは10のクラスでラベル付けされた大規模な現実世界のニュース記事データセットを使用しました。
論文 参考訳(メタデータ) (2023-04-16T12:14:38Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - A Domain-adaptive Pre-training Approach for Language Bias Detection in
News [3.7238620986236373]
本稿ではメディアバイアス領域に適応した新しい最先端トランスフォーマーモデルであるDA-RoBERTaを提案する。
また、バイアス領域に適応した2つのトランスフォーマーモデルであるDA-BERTとDA-BARTをトレーニングします。
提案したドメイン適応モデルは同じデータ上で事前バイアス検出手法より優れている。
論文 参考訳(メタデータ) (2022-05-22T08:18:19Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。