論文の概要: Hate Speech Detection via Dual Contrastive Learning
- arxiv url: http://arxiv.org/abs/2307.05578v1
- Date: Mon, 10 Jul 2023 13:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 16:18:14.009291
- Title: Hate Speech Detection via Dual Contrastive Learning
- Title(参考訳): デュアルコントラスト学習によるヘイトスピーチ検出
- Authors: Junyu Lu, Hongfei Lin, Xiaokun Zhang, Zhaoqing Li, Tongyue Zhang,
Linlin Zong, Fenglong Ma, and Bo Xu
- Abstract要約: 本稿では,ヘイトスピーチ検出のための新しい双方向コントラスト学習フレームワークを提案する。
本フレームワークは,自己教師型学習と教師型学習の損失を協調的に最適化し,スパンレベルの情報を取得する。
公開可能な2つの英語データセットの実験を行い、実験結果から、提案モデルが最先端のモデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 25.878271501274245
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The fast spread of hate speech on social media impacts the Internet
environment and our society by increasing prejudice and hurting people.
Detecting hate speech has aroused broad attention in the field of natural
language processing. Although hate speech detection has been addressed in
recent work, this task still faces two inherent unsolved challenges. The first
challenge lies in the complex semantic information conveyed in hate speech,
particularly the interference of insulting words in hate speech detection. The
second challenge is the imbalanced distribution of hate speech and non-hate
speech, which may significantly deteriorate the performance of models. To
tackle these challenges, we propose a novel dual contrastive learning (DCL)
framework for hate speech detection. Our framework jointly optimizes the
self-supervised and the supervised contrastive learning loss for capturing
span-level information beyond the token-level emotional semantics used in
existing models, particularly detecting speech containing abusive and insulting
words. Moreover, we integrate the focal loss into the dual contrastive learning
framework to alleviate the problem of data imbalance. We conduct experiments on
two publicly available English datasets, and experimental results show that the
proposed model outperforms the state-of-the-art models and precisely detects
hate speeches.
- Abstract(参考訳): ソーシャルメディアにおけるヘイトスピーチの急速な普及は、偏見を高め、人々を傷つけることによって、インターネット環境と社会に影響を与えます。
ヘイトスピーチの検出は、自然言語処理の分野で広く注目を集めている。
ヘイトスピーチ検出は近年研究されているが、この課題は2つの固有の未解決課題に直面している。
最初の課題は、ヘイトスピーチで伝達される複雑な意味情報、特にヘイトスピーチ検出における侮辱的な言葉の干渉にある。
第2の課題はヘイトスピーチと非ヘイトスピーチの不均衡分布であり、モデルの性能を著しく低下させる可能性がある。
そこで本研究では,ヘイトスピーチ検出のためのdcl(dual contrastive learning)フレームワークを提案する。
本フレームワークは,既存のモデルで使用されているトークンレベルの感情的意味論を超えて,特に虐待的・侮辱的な単語を含む音声を検出するために,自己指導と教師付きコントラスト学習損失を共同で最適化する。
さらに,2つのコントラスト学習フレームワークに焦点損失を組み込むことにより,データ不均衡の問題を緩和する。
2つの公開英語データセットの実験を行い、提案モデルが最先端のモデルより優れ、ヘイトスピーチを正確に検出することを示す。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - Bridging Modalities: Enhancing Cross-Modality Hate Speech Detection with Few-Shot In-Context Learning [4.136573141724715]
インターネット上でのヘイトスピーチは、デジタルプラットフォームの安全性にとって大きな課題となる。
近年の研究では、特定のモダリティに合わせた検出モデルが開発されている。
本研究では,大規模言語モデルを用いたテキスト内学習を多用した広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-10-08T01:27:12Z) - An Investigation of Large Language Models for Real-World Hate Speech
Detection [46.15140831710683]
既存の手法の大きな制限は、ヘイトスピーチ検出がコンテキストの問題である点である。
近年,大規模言語モデル (LLM) はいくつかの自然言語処理において最先端の性能を示した。
本研究は, ヘイトスピーチの文脈を効果的に把握する上で, 巧妙な推論プロンプトが有効であることを明らかにする。
論文 参考訳(メタデータ) (2024-01-07T00:39:33Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Leveraging World Knowledge in Implicit Hate Speech Detection [5.5536024561229205]
テキスト中のエンティティの言及に関する現実的な知識は、モデルがヘイトスピーチをよりよく検出するのに役立ちます。
また,実世界の知識がヘイトスピーチ検出に価値を与えない事例についても論じる。
論文 参考訳(メタデータ) (2022-12-28T21:23:55Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Detection of Hate Speech using BERT and Hate Speech Word Embedding with
Deep Model [0.5801044612920815]
本稿では,双方向LSTMに基づくディープモデルにドメイン固有の単語を埋め込み,ヘイトスピーチを自動的に検出・分類する可能性について検討する。
実験の結果、Bidirectional LSTMベースのディープモデルによるドメイン固有単語の埋め込みは93%のf1スコアを獲得し、BERTは96%のf1スコアを達成した。
論文 参考訳(メタデータ) (2021-11-02T11:42:54Z) - AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection [5.649040805759824]
本論文では,感情分類によるヘイトスピーチ検出と,二次的関連タスクとしてのターゲット同定を共同学習するマルチタスク学習型モデルであるAngryBERTを提案する。
実験の結果,AngryBERTは最先端のシングルタスク学習やマルチタスク学習のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-03-14T16:17:26Z) - Learning Explicit Prosody Models and Deep Speaker Embeddings for
Atypical Voice Conversion [60.808838088376675]
本稿では,明示的な韻律モデルと深層話者埋め込み学習を用いたVCシステムを提案する。
韻律補正器は音素埋め込みを取り入れ、典型的な音素持続時間とピッチ値を推定する。
変換モデルは、音素埋め込みと典型的な韻律特徴を入力として、変換された音声を生成する。
論文 参考訳(メタデータ) (2020-11-03T13:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。