論文の概要: Analyzing Hate Speech Data along Racial, Gender and Intersectional Axes
- arxiv url: http://arxiv.org/abs/2205.06621v1
- Date: Fri, 13 May 2022 13:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 12:32:34.191377
- Title: Analyzing Hate Speech Data along Racial, Gender and Intersectional Axes
- Title(参考訳): 人種、性別、交叉軸に沿ったヘイトスピーチデータの解析
- Authors: Antonis Maronikolakis, Philip Baader, Hinrich Sch\"utze
- Abstract要約: 我々は、人種、性別、交叉軸に沿ったヘイトスピーチデータセットのバイアスを調査する。
アフリカ・アメリカン・イングリッシュ(AAE)、男性的ツイート、AAE+男性的ツイートに対する強い偏見を識別する。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To tackle the rising phenomenon of hate speech, efforts have been made
towards data curation and analysis. When it comes to analysis of bias, previous
work has focused predominantly on race. In our work, we further investigate
bias in hate speech datasets along racial, gender and intersectional axes. We
identify strong bias against African American English (AAE), masculine and
AAE+Masculine tweets, which are annotated as disproportionately more hateful
and offensive than from other demographics. We provide evidence that BERT-based
models propagate this bias and show that balancing the training data for these
protected attributes can lead to fairer models with regards to gender, but not
race.
- Abstract(参考訳): ヘイトスピーチの増大する現象に対処するため、データキュレーションと分析への取り組みが進められている。
バイアスの分析に関しては、以前の作業は主にレースに重点を置いています。
本研究では,人種,性別,交叉軸に沿ったヘイトスピーチデータセットのバイアスをさらに調査する。
我々は、アフリカ系アメリカ人英語(aae)、男性英語、男性英語(aae+男性)のツイートに対する強い偏見を識別する。
BERTベースのモデルは、このバイアスを伝播し、これらの保護属性のトレーニングデータのバランスが、性別に関してより公平なモデルに繋がることを示した。
関連論文リスト
- Sports and Women's Sports: Gender Bias in Text Generation with Olympic Data [0.06526824510982801]
オリンピックにおける男女同時開催イベントのデータを用いて,言語モデルにおけるジェンダーバイアスの異なる形態を調査する。
ジェンダーが不明瞭な場合、モデルは常に女性に偏見を抱いていることがわかりました。
論文 参考訳(メタデータ) (2025-02-06T17:01:00Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference [21.18458377708873]
モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
論文 参考訳(メタデータ) (2021-09-14T04:57:45Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Hate Speech Detection and Racial Bias Mitigation in Social Media based
on BERT model [1.9336815376402716]
本稿では,既存の学習済み言語モデルであるBERTに基づくヘイトスピーチ検出のための伝達学習手法を提案する。
提案したモデルは、人種差別、セクシズム、憎悪、攻撃的なコンテンツをTwitter上で注釈付けした2つの公開データセット上で評価する。
論文 参考訳(メタデータ) (2020-08-14T16:47:25Z) - Intersectional Bias in Hate Speech and Abusive Language Datasets [0.3149883354098941]
アフリカ系アメリカ人のツイートの3.7倍は虐待的だと評価される傾向があった。
アフリカ系アメリカ人の男性ツイートは、ヘイトフルと評価される確率が最大で77%だった。
本研究はヘイトスピーチと虐待言語のデータセットにおける交差バイアスに関する最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2020-05-12T16:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。