論文の概要: Whose Opinions Matter? Perspective-aware Models to Identify Opinions of
Hate Speech Victims in Abusive Language Detection
- arxiv url: http://arxiv.org/abs/2106.15896v1
- Date: Wed, 30 Jun 2021 08:35:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 12:39:35.073158
- Title: Whose Opinions Matter? Perspective-aware Models to Identify Opinions of
Hate Speech Victims in Abusive Language Detection
- Title(参考訳): 誰の意見が大事?
嫌悪言語検出におけるヘイトスピーチ被害者の意見識別のための視点認識モデル
- Authors: Sohail Akhtar, Valerio Basile, Viviana Patti
- Abstract要約: 異なるコミュニティから生まれる偏極的な意見をモデル化するための詳細な研究を提示する。
この情報に頼ることで、アノテータを同様の視点を共有するグループに分割できると考えています。
本稿では,オンライン虐待を特徴付けるためのサブカテゴリによって注釈付けされた,新しいリソース,多視点英語データセットを提案する。
- 参考スコア(独自算出の注目度): 6.167830237917662
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social media platforms provide users the freedom of expression and a medium
to exchange information and express diverse opinions. Unfortunately, this has
also resulted in the growth of abusive content with the purpose of
discriminating people and targeting the most vulnerable communities such as
immigrants, LGBT, Muslims, Jews and women. Because abusive language is
subjective in nature, there might be highly polarizing topics or events
involved in the annotation of abusive contents such as hate speech (HS).
Therefore, we need novel approaches to model conflicting perspectives and
opinions coming from people with different personal and demographic
backgrounds. In this paper, we present an in-depth study to model polarized
opinions coming from different communities under the hypothesis that similar
characteristics (ethnicity, social background, culture etc.) can influence the
perspectives of annotators on a certain phenomenon. We believe that by relying
on this information, we can divide the annotators into groups sharing similar
perspectives. We can create separate gold standards, one for each group, to
train state-of-the-art deep learning models. We can employ an ensemble approach
to combine the perspective-aware classifiers from different groups to an
inclusive model. We also propose a novel resource, a multi-perspective English
language dataset annotated according to different sub-categories relevant for
characterising online abuse: hate speech, aggressiveness, offensiveness and
stereotype. By training state-of-the-art deep learning models on this novel
resource, we show how our approach improves the prediction performance of a
state-of-the-art supervised classifier.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、ユーザに表現の自由と、情報を交換し、さまざまな意見を表現するための媒体を提供する。
残念ながらこれは、人々を差別し、移民、lgbt、ムスリム、ユダヤ人、女性といった最も脆弱なコミュニティをターゲットにする目的で、虐待的なコンテンツも成長させた。
虐待的言語は本質的に主観的であるため、ヘイトスピーチ(HS)のような虐待的内容の注釈にまつわる話題や出来事が極めて偏りやすい。
したがって、個人的背景や人口統計学的背景の異なる人々からの矛盾する視点や意見をモデル化するための新しいアプローチが必要となる。
本稿では,異なるコミュニティからの偏極的意見のモデル化を,類似した特徴(民族性,社会的背景,文化など)を仮説として詳細に検討する。
注釈者の視点が 特定の現象に影響を与えます
この情報に頼ることで、アノテータを同様の視点を共有するグループに分割できると考えています。
私たちは、最先端のディープラーニングモデルをトレーニングするために、それぞれ1つずつのゴールド標準を作成できます。
異なるグループから包括モデルへパースペクティブアウェア分類器を結合するアンサンブルアプローチを用いることができる。
また, ヘイトスピーチ, 攻撃性, 攻撃性, ステレオタイプといった, オンライン虐待を特徴付けるサブカテゴリによって注釈付けされた, 新たなリソースを提案する。
そこで本研究では,最先端ディープラーニングモデルの学習により,最先端の教師付き分類器の予測性能が向上することを示す。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Protected group bias and stereotypes in Large Language Models [2.1122940074160357]
本稿では,倫理と公正の領域におけるLarge Language Models(LLM)の振る舞いについて考察する。
マイノリティ化されたグループに偏見はありますが、特に性別やセクシュアリティの領域では、西洋の偏見も見られます。
論文 参考訳(メタデータ) (2024-03-21T00:21:38Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Interpretable Multi-Modal Hate Speech Detection [32.36781061930129]
特定の憎悪表現が作られる社会文化的文脈とともに、テキストの意味を効果的に捉えることができるディープニューラルマルチモーダルモデルを提案する。
我々のモデルは、既存のヘイトスピーチ分類アプローチを上回ることができる。
論文 参考訳(メタデータ) (2021-03-02T10:12:26Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z) - Examining Racial Bias in an Online Abuse Corpus with Structural Topic
Modeling [0.30458514384586405]
我々は、ソーシャルメディア投稿における人種的偏見を調べるために、構造的トピックモデリングを用いる。
我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することにより、乱用言語データセットを増強する。
論文 参考訳(メタデータ) (2020-05-26T21:02:43Z) - Transfer Learning for Hate Speech Detection in Social Media [14.759208309842178]
本稿では、2つの独立したデータセットを協調的に活用するために転送学習手法を用いる。
我々は、構築されたヘイトスピーチ表現の解釈可能な2次元可視化ツールを構築します。
この共同表現は,限られた監督範囲の場合にのみ予測性能が向上することを示す。
論文 参考訳(メタデータ) (2019-06-10T08:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。