論文の概要: Examining Racial Bias in an Online Abuse Corpus with Structural Topic
Modeling
- arxiv url: http://arxiv.org/abs/2005.13041v1
- Date: Tue, 26 May 2020 21:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 00:32:25.673777
- Title: Examining Racial Bias in an Online Abuse Corpus with Structural Topic
Modeling
- Title(参考訳): 構造的トピックモデリングを用いたオンライン乱用コーパスにおける人種バイアスの検討
- Authors: Thomas Davidson and Debasmita Bhattacharya
- Abstract要約: 我々は、ソーシャルメディア投稿における人種的偏見を調べるために、構造的トピックモデリングを用いる。
我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することにより、乱用言語データセットを増強する。
- 参考スコア(独自算出の注目度): 0.30458514384586405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use structural topic modeling to examine racial bias in data collected to
train models to detect hate speech and abusive language in social media posts.
We augment the abusive language dataset by adding an additional feature
indicating the predicted probability of the tweet being written in
African-American English. We then use structural topic modeling to examine the
content of the tweets and how the prevalence of different topics is related to
both abusiveness annotation and dialect prediction. We find that certain topics
are disproportionately racialized and considered abusive. We discuss how topic
modeling may be a useful approach for identifying bias in annotated data.
- Abstract(参考訳): 我々は,ソーシャルメディア投稿中のヘイトスピーチや虐待的言語を検出するために,モデル学習のために収集されたデータにおける人種バイアスを調べるために,構造的話題モデリングを用いる。
我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することで、乱用言語データセットを強化する。
次に, 構造的話題モデルを用いて, つぶやきの内容と, 異なる話題の拡散が, 乱用性アノテーションと方言予測の両方にどのように関係しているかを検証した。
特定の話題は不釣り合いに人種化され、虐待と見なされている。
トピックモデリングは、注釈付きデータにおけるバイアスを識別するための有用なアプローチになり得るかについて議論する。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Does Liking Yellow Imply Driving a School Bus? Semantic Leakage in Language Models [113.58052868898173]
我々は、モデルが予期しない方法でプロンプトから生成元に無関係な情報を漏らす現象を識別し、特徴付けする。
本研究では,人間と自動の両方でセマンティックリークを検出するための評価設定を提案し,その振る舞いを診断するための多様なテストスイートをキュレートし,13のフラッグシップモデルにおいて重要なセマンティックリークを測定する。
論文 参考訳(メタデータ) (2024-08-12T22:30:55Z) - Towards Better Inclusivity: A Diverse Tweet Corpus of English Varieties [0.0]
私たちは、その根本にあるバイアス(データそのもの)の問題に対処することを目指しています。
英語の多言語話者の割合が低い国からのツイートのデータセットをキュレートする。
ベストプラクティスに従って、我々の成長するコーパスには7カ国から170,800のツイートが写っている。
論文 参考訳(メタデータ) (2024-01-21T13:18:20Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - The World of an Octopus: How Reporting Bias Influences a Language
Model's Perception of Color [73.70233477125781]
報告バイアスがテキストのみのトレーニングに悪影響を及ぼし、本質的に制限されていることを示す。
次に、マルチモーダルモデルが視覚的トレーニングを利用してこれらの効果を緩和できることを実証する。
論文 参考訳(メタデータ) (2021-10-15T16:28:17Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Whose Opinions Matter? Perspective-aware Models to Identify Opinions of
Hate Speech Victims in Abusive Language Detection [6.167830237917662]
異なるコミュニティから生まれる偏極的な意見をモデル化するための詳細な研究を提示する。
この情報に頼ることで、アノテータを同様の視点を共有するグループに分割できると考えています。
本稿では,オンライン虐待を特徴付けるためのサブカテゴリによって注釈付けされた,新しいリソース,多視点英語データセットを提案する。
論文 参考訳(メタデータ) (2021-06-30T08:35:49Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Hate Speech Detection and Racial Bias Mitigation in Social Media based
on BERT model [1.9336815376402716]
本稿では,既存の学習済み言語モデルであるBERTに基づくヘイトスピーチ検出のための伝達学習手法を提案する。
提案したモデルは、人種差別、セクシズム、憎悪、攻撃的なコンテンツをTwitter上で注釈付けした2つの公開データセット上で評価する。
論文 参考訳(メタデータ) (2020-08-14T16:47:25Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - "To Target or Not to Target": Identification and Analysis of Abusive
Text Using Ensemble of Classifiers [18.053219155702465]
ソーシャルメディアプラットフォーム上での虐待的・憎悪的コンテンツを識別・分析するためのアンサンブル学習手法を提案する。
私たちの積み重ねられたアンサンブルは、3つの機械学習モデルで構成されており、言語のさまざまな側面をキャプチャし、不適切な言語に関する多様な一貫性のある洞察を提供する。
論文 参考訳(メタデータ) (2020-06-05T06:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。