論文の概要: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- arxiv url: http://arxiv.org/abs/2310.00347v2
- Date: Sat, 14 Oct 2023 12:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 22:45:18.192887
- Title: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- Title(参考訳): アンロックバイアス検出:コンテンツ分析のためのトランスフォーマーモデルを活用する
- Authors: Shaina Raza, Oluwanifemi Bamgbose, Veronica Chatrath, Shardul Ghuge,
Yan Sidyakin, Abdullah Y Muaad
- Abstract要約: テキストにおけるバイアス検出は、負のステレオタイプ、誤情報、そして決定に影響を与えるために必須である。
これに対し、CBDT(Contextualized Bi-Directional Dual Transformer)を導入する。
CBDTは、偏見と中性ステートメントを区別する能力を示し、正確な偏見のレキセムを指摘している。
- 参考スコア(独自算出の注目度): 1.980639720136382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias detection in text is imperative due to its role in reinforcing negative
stereotypes, disseminating misinformation, and influencing decisions. Current
language models often fall short in generalizing beyond their training sets. In
response, we introduce the Contextualized Bi-Directional Dual Transformer
(CBDT) Classifier. This novel architecture utilizes two synergistic transformer
networks: the Context Transformer and the Entity Transformer, aiming for
enhanced bias detection. Our dataset preparation follows the FAIR principles,
ensuring ethical data usage. Through rigorous testing on various datasets, CBDT
showcases its ability in distinguishing biased from neutral statements, while
also pinpointing exact biased lexemes. Our approach outperforms existing
methods, achieving a 2-4\% increase over benchmark performances. This opens
avenues for adapting the CBDT model across diverse linguistic and cultural
landscapes.
- Abstract(参考訳): テキストにおけるバイアス検出は、負のステレオタイプを強化し、誤報を広め、決定に影響を与えるために必須である。
現在の言語モデルは、トレーニングセットを超えた一般化において不足することが多い。
これに対して,CBDT(Contextualized Bi-Directional Dual Transformer)分類法を提案する。
このアーキテクチャでは、コンテキスト変換器とエンティティ変換器という2つの相乗変換器ネットワークを利用し、バイアス検出の強化を目指している。
データセットの準備は、FAIRの原則に従い、倫理データの使用を保証する。
CBDTは、さまざまなデータセットの厳密なテストを通じて、中立的なステートメントと偏見を区別する能力を示し、正確な偏見を指摘している。
この手法は既存の手法よりも優れており、ベンチマーク性能よりも2-4\%向上している。
これにより、CBDTモデルを様々な言語や文化の風景に適応する道が開ける。
関連論文リスト
- GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - Current Topological and Machine Learning Applications for Bias Detection
in Text [4.799066966918178]
本研究はRedditBiasデータベースを用いてテキストバイアスの分析を行う。
BERTおよびRoBERTaの変種を含む4つの変圧器モデルについて検討した。
発見によるとBERT、特にミニBERTはバイアス分類に優れており、多言語モデルは遅延している。
論文 参考訳(メタデータ) (2023-11-22T16:12:42Z) - NBIAS: A Natural Language Processing Framework for Bias Identification
in Text [9.486702261615166]
テキストデータのバイアスは、データが使用されると歪んだ解釈や結果につながる可能性がある。
偏りのあるデータに基づいて訓練されたアルゴリズムは、あるグループに不公平に影響を及ぼす決定を下すかもしれない。
我々は,データ,コーパス構築,モデル開発,評価レイヤの4つの主要レイヤからなる包括的フレームワーク NBIAS を開発した。
論文 参考訳(メタデータ) (2023-08-03T10:48:30Z) - Transformer Language Models Handle Word Frequency in Prediction Head [31.145866381881625]
本研究では,予測ヘッドの内部動作について検討し,特にバイアスパラメータに着目した。
BERT モデルと GPT-2 モデルを用いた実験により,単語予測ヘッドのバイアスがコーパス内の単語周波数を反映する能力に重要な役割を果たすことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-29T17:59:15Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - A Domain-adaptive Pre-training Approach for Language Bias Detection in
News [3.7238620986236373]
本稿ではメディアバイアス領域に適応した新しい最先端トランスフォーマーモデルであるDA-RoBERTaを提案する。
また、バイアス領域に適応した2つのトランスフォーマーモデルであるDA-BERTとDA-BARTをトレーニングします。
提案したドメイン適応モデルは同じデータ上で事前バイアス検出手法より優れている。
論文 参考訳(メタデータ) (2022-05-22T08:18:19Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Mitigating the Position Bias of Transformer Models in Passage Re-Ranking [12.526786110360622]
教師付き機械学習モデルとその評価は、基礎となるデータセットの品質に大きく依存する。
文中の正しい回答の位置の偏りを,文節の再ランキングに用いる2つの一般的な質問応答データセットで観察する。
位置バイアスを緩和することにより、Transformerベースのリグレードモデルはバイアス付きおよび偏りのあるデータセットに対して等しく有効であることを示す。
論文 参考訳(メタデータ) (2021-01-18T10:38:03Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。