論文の概要: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- arxiv url: http://arxiv.org/abs/2310.00347v1
- Date: Sat, 30 Sep 2023 12:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 05:01:12.169399
- Title: Unlocking Bias Detection: Leveraging Transformer-Based Models for
Content Analysis
- Title(参考訳): アンロックバイアス検出:コンテンツ分析のためのトランスフォーマーモデルを活用する
- Authors: Shaina Raza, Oluwanifemi Bamgbose, Veronica Chatrath, Yan Sidyakin,
Shardul Ghuge, Abdullah Y Muaad
- Abstract要約: テキストのバイアスを検出するためのCBDT(Contextualized Bi-Directional Dual Transformer)を提案する。
多様なデータセットに対する実験結果は、偏見のある文と非偏見のある文を正確に分類する際のCBDTの優位性を示している。
将来の研究は、モデルを様々な言語や文化の文脈に拡張することができる。
- 参考スコア(独自算出の注目度): 1.980639720136382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting bias in text is crucial due to its potential implications in
perpetuating harmful stereotypes, spreading misinformation, and influencing
decision-making. Existing language models often struggle to generalize beyond
their training data. To address this challenge, we propose the Contextualized
Bi-Directional Dual Transformer (CBDT) Classifier that leverages two
interconnected transformer networks, the Context Transformer and the Entity
Transformer, to detect bias in text. Experimental results on diverse datasets
demonstrate the superiority of the CBDT classifier in accurately classifying
biased and non-biased sentences, as well as identifying specific biased words
and phrases. We get a performance gain of about 2-4% over the baselines. Future
research can extend the model to different languages and cultural contexts
- Abstract(参考訳): テキストのバイアスを検出することは、有害なステレオタイプを永続させ、誤情報を広げ、意思決定に影響を与える可能性があるために重要である。
既存の言語モデルは、トレーニングデータ以上の一般化に苦慮することが多い。
この課題に対処するために,コンテキストトランスとエンティティトランスという2つの相互接続トランスネットワークを利用して,テキストのバイアスを検出するcbdt(contextized bi-directional dual transformer)分類器を提案する。
多様なデータセットに対する実験結果は、偏りのある文や非偏りのある文を正確に分類し、特定の偏りのある単語やフレーズを識別するCBDT分類器の優位性を示す。
ベースラインよりも約2~4%のパフォーマンス向上が得られます。
将来の研究は、モデルを異なる言語と文化的文脈に拡張できる
関連論文リスト
- GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - Current Topological and Machine Learning Applications for Bias Detection
in Text [4.799066966918178]
本研究はRedditBiasデータベースを用いてテキストバイアスの分析を行う。
BERTおよびRoBERTaの変種を含む4つの変圧器モデルについて検討した。
発見によるとBERT、特にミニBERTはバイアス分類に優れており、多言語モデルは遅延している。
論文 参考訳(メタデータ) (2023-11-22T16:12:42Z) - NBIAS: A Natural Language Processing Framework for Bias Identification
in Text [9.486702261615166]
テキストデータのバイアスは、データが使用されると歪んだ解釈や結果につながる可能性がある。
偏りのあるデータに基づいて訓練されたアルゴリズムは、あるグループに不公平に影響を及ぼす決定を下すかもしれない。
我々は,データ,コーパス構築,モデル開発,評価レイヤの4つの主要レイヤからなる包括的フレームワーク NBIAS を開発した。
論文 参考訳(メタデータ) (2023-08-03T10:48:30Z) - Transformer Language Models Handle Word Frequency in Prediction Head [31.145866381881625]
本研究では,予測ヘッドの内部動作について検討し,特にバイアスパラメータに着目した。
BERT モデルと GPT-2 モデルを用いた実験により,単語予測ヘッドのバイアスがコーパス内の単語周波数を反映する能力に重要な役割を果たすことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-29T17:59:15Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - A Domain-adaptive Pre-training Approach for Language Bias Detection in
News [3.7238620986236373]
本稿ではメディアバイアス領域に適応した新しい最先端トランスフォーマーモデルであるDA-RoBERTaを提案する。
また、バイアス領域に適応した2つのトランスフォーマーモデルであるDA-BERTとDA-BARTをトレーニングします。
提案したドメイン適応モデルは同じデータ上で事前バイアス検出手法より優れている。
論文 参考訳(メタデータ) (2022-05-22T08:18:19Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Mitigating the Position Bias of Transformer Models in Passage Re-Ranking [12.526786110360622]
教師付き機械学習モデルとその評価は、基礎となるデータセットの品質に大きく依存する。
文中の正しい回答の位置の偏りを,文節の再ランキングに用いる2つの一般的な質問応答データセットで観察する。
位置バイアスを緩和することにより、Transformerベースのリグレードモデルはバイアス付きおよび偏りのあるデータセットに対して等しく有効であることを示す。
論文 参考訳(メタデータ) (2021-01-18T10:38:03Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。