論文の概要: "It's Not Just Hate'': A Multi-Dimensional Perspective on Detecting
Harmful Speech Online
- arxiv url: http://arxiv.org/abs/2210.15870v1
- Date: Fri, 28 Oct 2022 03:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:56:20.407806
- Title: "It's Not Just Hate'': A Multi-Dimensional Perspective on Detecting
Harmful Speech Online
- Title(参考訳): 「ただの憎しみではない」:オンラインの有害音声検出のための多次元的視点
- Authors: Federico Bianchi, Stefanie Anja Hills, Patricia Rossini, Dirk Hovy,
Rebekah Tromble, Nava Tintarev
- Abstract要約: よりきめ細かなマルチラベルアプローチが、概念的およびパフォーマンス的な問題の両方に対処し、悪質でヘイトフルなコンテンツや不寛容なコンテンツを予測することを示します。
我々は、米国と英国からの移民に関する4万件以上のツイートからなる新しいデータセットを公開しました。
- 参考スコア(独自算出の注目度): 26.10949184015077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Well-annotated data is a prerequisite for good Natural Language Processing
models. Too often, though, annotation decisions are governed by optimizing time
or annotator agreement. We make a case for nuanced efforts in an
interdisciplinary setting for annotating offensive online speech. Detecting
offensive content is rapidly becoming one of the most important real-world NLP
tasks. However, most datasets use a single binary label, e.g., for hate or
incivility, even though each concept is multi-faceted. This modeling choice
severely limits nuanced insights, but also performance. We show that a more
fine-grained multi-label approach to predicting incivility and hateful or
intolerant content addresses both conceptual and performance issues. We release
a novel dataset of over 40,000 tweets about immigration from the US and UK,
annotated with six labels for different aspects of incivility and intolerance.
Our dataset not only allows for a more nuanced understanding of harmful speech
online, models trained on it also outperform or match performance on benchmark
datasets.
- Abstract(参考訳): 十分な注釈付きデータは、優れた自然言語処理モデルの前提条件である。
しかし、アノテーションの決定は時間やアノテータの合意を最適化することで制御されることが多い。
我々は,攻撃的なオンラインスピーチを注釈付けするための学際的環境におけるニュアンス的な努力を事例に挙げる。
攻撃的コンテンツの検出は、急速に、現実世界で最も重要なNLPタスクの1つになりつつある。
しかし、ほとんどのデータセットは、各概念が多面的であるにもかかわらず、ヘイトやインキビティのために、単一のバイナリラベルを使用する。
このモデリングの選択は、微妙な洞察だけでなく、パフォーマンスも厳しく制限します。
インキビティや憎しみや不寛容なコンテンツを予測するための、よりきめ細かいマルチラベルアプローチは、概念とパフォーマンスの問題の両方に対処できることを示します。
当社は米国と英国からの移民に関する4万あまりのツイートのデータセットを公開し、6つのラベルにインキビティと不寛容の異なる側面を注釈付けした。
私たちのデータセットは、有害なスピーチをオンラインでより微妙に理解するだけでなく、トレーニングされたモデルもベンチマークデータセットのパフォーマンスを上回ったり、一致させたりします。
関連論文リスト
- HCDIR: End-to-end Hate Context Detection, and Intensity Reduction model
for online comments [2.162419921663162]
ソーシャルメディア投稿において,Hate Context Detection と Hate Intensity Reduction のための新しいエンドツーエンドモデル HCDIR を提案する。
我々は、ヘイトフルコメントを検出するために、いくつかの事前訓練された言語モデルを微調整し、最も優れたヘイトフルコメント検出モデルを確認した。
論文 参考訳(メタデータ) (2023-12-20T17:05:46Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Revisiting Hate Speech Benchmarks: From Data Curation to System
Deployment [26.504056750529124]
GOTHateは、Twitterからヘイトスピーチを検出するために約51万の投稿をクラウドソースした大規模クラウドソースデータセットである。
最近の10のベースラインでベンチマークを行い、内因性信号の追加がヘイトスピーチ検出タスクをどのように強化するかを検討する。
我々のHEN-mBERTは多言語混合実験モデルであり、潜在内因性信号で言語的部分空間を豊かにする。
論文 参考訳(メタデータ) (2023-06-01T19:36:52Z) - How to Solve Few-Shot Abusive Content Detection Using the Data We Actually Have [58.23138483086277]
この作業では、すでに持っているデータセットを活用し、虐待的な言語検出に関連する幅広いタスクをカバーしています。
私たちのゴールは、ターゲットドメインのトレーニング例を少しだけ使用して、新しいターゲットラベルセットや/または言語のために、安価にモデルを構築することです。
実験の結果、すでに存在するデータセットと、対象タスクのほんの数ショットしか使用していないモデルの性能が、モノリンガル言語と言語間で改善されていることがわかった。
論文 参考訳(メタデータ) (2023-05-23T14:04:12Z) - BERT-based Ensemble Approaches for Hate Speech Detection [1.8734449181723825]
本稿では,複数のディープモデルを用いたソーシャルメディアにおけるヘイトスピーチの分類に焦点を当てた。
ソフト投票,最大値,ハード投票,積み重ねなど,いくつかのアンサンブル手法を用いて評価を行った。
実験の結果、特にアンサンブルモデルでは、スタックリングによってDavidsonデータセットでは97%、DHOデータセットでは77%のスコアが得られた。
論文 参考訳(メタデータ) (2022-09-14T09:08:24Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Meta-Learning with Variational Semantic Memory for Word Sense
Disambiguation [56.830395467247016]
メタ学習環境におけるWSDのセマンティックメモリモデルを提案する。
我々のモデルは階層的変動推論に基づいており、ハイパーネットワークを介して適応的なメモリ更新ルールを組み込んでいる。
極めて少ないシナリオでの効果的な学習を支援するために,本モデルがWSDで最先端の技術を数ショットで実現していることを示す。
論文 参考訳(メタデータ) (2021-06-05T20:40:01Z) - Cross-lingual hate speech detection based on multilingual
domain-specific word embeddings [4.769747792846004]
トランスファーラーニングの視点から多言語のヘイトスピーチ検出の課題に取り組むことを提案する。
私たちの目標は、ある特定の言語の知識が他の言語の分類に使用できるかどうかを判断することです。
単純かつ特定された多言語ヘイト表現を用いることで分類結果が向上することを示す。
論文 参考訳(メタデータ) (2021-04-30T02:24:50Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - Transfer Learning for Hate Speech Detection in Social Media [14.759208309842178]
本稿では、2つの独立したデータセットを協調的に活用するために転送学習手法を用いる。
我々は、構築されたヘイトスピーチ表現の解釈可能な2次元可視化ツールを構築します。
この共同表現は,限られた監督範囲の場合にのみ予測性能が向上することを示す。
論文 参考訳(メタデータ) (2019-06-10T08:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。