論文の概要: Hate Speech Criteria: A Modular Approach to Task-Specific Hate Speech
Definitions
- arxiv url: http://arxiv.org/abs/2206.15455v1
- Date: Thu, 30 Jun 2022 17:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:10:38.797571
- Title: Hate Speech Criteria: A Modular Approach to Task-Specific Hate Speech
Definitions
- Title(参考訳): ヘイトスピーチ基準:タスク特化ヘイトスピーチ定義へのモジュール的アプローチ
- Authors: Urja Khurana, Ivar Vermeulen, Eric Nalisnick, Marloes van Noorloos and
Antske Fokkens
- Abstract要約: 本稿では,法と社会科学の観点から展開したテキスト音声基準について述べる。
我々は、開発者が念頭に置いている目標と正確なタスクは、テキスト音声のスコープをどのように定義するかを決定するべきであると論じる。
- 参考スコア(独自算出の注目度): 1.3274508420845537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: \textbf{Offensive Content Warning}: This paper contains offensive language
only for providing examples that clarify this research and do not reflect the
authors' opinions. Please be aware that these examples are offensive and may
cause you distress.
The subjectivity of recognizing \textit{hate speech} makes it a complex task.
This is also reflected by different and incomplete definitions in NLP. We
present \textit{hate speech} criteria, developed with perspectives from law and
social science, with the aim of helping researchers create more precise
definitions and annotation guidelines on five aspects: (1) target groups, (2)
dominance, (3) perpetrator characteristics, (4) type of negative group
reference, and the (5) type of potential consequences/effects. Definitions can
be structured so that they cover a more broad or more narrow phenomenon. As
such, conscious choices can be made on specifying criteria or leaving them
open. We argue that the goal and exact task developers have in mind should
determine how the scope of \textit{hate speech} is defined. We provide an
overview of the properties of English datasets from \url{hatespeechdata.com}
that may help select the most suitable dataset for a specific scenario.
- Abstract(参考訳): textbf{Offensive Content Warning}: この論文は、この研究を明確にし、著者の意見を反映しない事例を提供するためにのみ、攻撃的な言語を含む。
これらの例が攻撃的であり、あなたを苦しめる可能性があることに注意してください。
textit{hate speech} を認識する主観性は、複雑なタスクとなる。
これは nlp の異なる定義や不完全な定義にも反映される。
本研究では,(1)対象グループ,(2)支配性,(3)加害者特性,(4)否定的グループ参照,(5)潜在的な結果・効果の5つの側面について,より正確な定義と注釈ガイドラインを作成することを目的として,法と社会科学の視点から開発された \textit{hate speech} 基準を提案する。
定義はより広いあるいはより狭い現象をカバーするように構成することができる。
したがって、意識的な選択は、基準を指定したり、オープンにしたままにすることができる。
我々は、開発者が念頭に置いているゴールと正確なタスクは、どうやって \textit{hate speech} のスコープが定義されるかを決定するべきであると論じる。
我々は、特定のシナリオに最も適したデータセットを選択するのに役立つ、 \url{hatespeechdata.com} からの英語データセットの性質の概要を提供する。
関連論文リスト
- Untangling Hate Speech Definitions: A Semantic Componential Analysis Across Cultures and Domains [12.964629786324032]
オンライン辞書、研究論文、ウィキペディアの記事、法律、オンラインプラットフォームという5つのドメインから派生した定義のデータセットを作成します。
我々の分析では、コンポーネントは定義から定義まで異なるが、多くのドメインは対象の文化を考慮せずに互いに定義を借用している。
論文 参考訳(メタデータ) (2024-11-11T22:44:29Z) - Subjective $\textit{Isms}$? On the Danger of Conflating Hate and Offence
in Abusive Language Detection [5.351398116822836]
我々はヘイトスピーチの発見を無効にすることができると論じる。
我々は、将来の研究が理論上あることを求め、その概念や犯罪から憎悪を遠ざけている。
論文 参考訳(メタデータ) (2024-03-04T17:56:28Z) - Towards Legally Enforceable Hate Speech Detection for Public Forums [29.225955299645978]
本研究では,ヘイトスピーチ検出のための新たな視点と課題を紹介する。
法の専門家による11の可能な定義に違反したデータセットを使用します。
ヘイトスピーチの明確で法的に強制可能なインスタンスを特定することの難しさを踏まえ、専門家が作成したサンプルと自動マイニングされたチャレンジセットでデータセットを拡張する。
論文 参考訳(メタデータ) (2023-05-23T04:34:41Z) - PropSegmEnt: A Large-Scale Corpus for Proposition-Level Segmentation and
Entailment Recognition [63.51569687229681]
文中の各命題の文的含意関係を個別に認識する必要性について論じる。
提案するPropSegmEntは45K以上の提案のコーパスであり, 専門家によるアノテートを行う。
我々のデータセット構造は、(1)文書内の文章を命題の集合に分割し、(2)異なるが、トポジカルに整合した文書に対して、各命題の含意関係を分類するタスクに類似している。
論文 参考訳(メタデータ) (2022-12-21T04:03:33Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Fine-Grained Opinion Summarization with Minimal Supervision [48.43506393052212]
FineSumは、複数のドキュメントから意見を抽出することでターゲットをプロファイルすることを目的としている。
FineSumは、生のコーパスから意見語句を自動的に識別し、異なる側面と感情に分類し、各アスペクト/感覚の下に複数のきめ細かい意見クラスタを構築する。
ベンチマークの自動評価と定量的人的評価の両方が,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-10-17T15:16:34Z) - Latent Hatred: A Benchmark for Understanding Implicit Hate Speech [22.420275418616242]
この研究は、暗黙のヘイトスピーチの理論的に正当化された分類法と、各メッセージにきめ細かいラベルを付けたベンチマークコーパスを導入している。
本稿では、同時代のベースラインを用いて、暗黙のヘイトスピーチを検出し、説明するためにデータセットを体系的に分析する。
論文 参考訳(メタデータ) (2021-09-11T16:52:56Z) - Identifying Offensive Expressions of Opinion in Context [0.0]
文脈における意見や感情を識別する主観的情報抽出システムは依然として課題である。
感情に基づくNLPタスクでは、文脈における全ての攻撃的または憎悪的な意見よりも、情報抽出のリソースが少ない。
この論文は、明示的で暗黙的に攻撃的で、意見の表現を誓う新しいクロス言語的および文脈的攻撃的語彙を提供する。
論文 参考訳(メタデータ) (2021-04-25T18:35:39Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。