論文の概要: Fine-Grained Chinese Hate Speech Understanding: Span-Level Resources, Coded Term Lexicon, and Enhanced Detection Frameworks
- arxiv url: http://arxiv.org/abs/2507.11292v1
- Date: Tue, 15 Jul 2025 13:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.121576
- Title: Fine-Grained Chinese Hate Speech Understanding: Span-Level Resources, Coded Term Lexicon, and Enhanced Detection Frameworks
- Title(参考訳): 微粒化中国語Hate音声理解:Span-Level Resources, Coded Term Lexicon, および拡張検出フレームワーク
- Authors: Zewen Bai, Liang Yang, Shengdi Yin, Yuanyuan Sun, Hongfei Lin,
- Abstract要約: Span-level Target-Aware Toxicity extract dataset (STATE ToxiCN)を導入する。
我々は、中国語のコード化されたヘイト用語、LLMのヘイトセマンティクスを解釈する能力について、初めて包括的な研究を行った。
本稿では,注釈付き辞書をモデルに統合し,ヘイトスピーチ検出性能を大幅に向上させる手法を提案する。
- 参考スコア(独自算出の注目度): 13.187315629074428
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proliferation of hate speech has inflicted significant societal harm, with its intensity and directionality closely tied to specific targets and arguments. In recent years, numerous machine learning-based methods have been developed to detect hateful comments on online platforms automatically. However, research on Chinese hate speech detection lags behind, and interpretability studies face two major challenges: first, the scarcity of span-level fine-grained annotated datasets limits models' deep semantic understanding of hate speech; second, insufficient research on identifying and interpreting coded hate speech restricts model explainability in complex real-world scenarios. To address these, we make the following contributions: (1) We introduce the Span-level Target-Aware Toxicity Extraction dataset (STATE ToxiCN), the first span-level Chinese hate speech dataset, and evaluate the hate semantic understanding of existing models using it. (2) We conduct the first comprehensive study on Chinese coded hate terms, LLMs' ability to interpret hate semantics. (3) We propose a method to integrate an annotated lexicon into models, significantly enhancing hate speech detection performance. Our work provides valuable resources and insights to advance the interpretability of Chinese hate speech detection research.
- Abstract(参考訳): ヘイトスピーチの拡散は、その強さと方向性が特定の目標や議論と密接に結びついており、社会に重大な害を与えている。
近年,オンラインプラットフォーム上でヘイトフルコメントを自動的に検出する機械学習ベースの手法が数多く開発されている。
しかし、中国のヘイトスピーチ検出の遅れや解釈可能性の研究は、2つの大きな課題に直面している。第一に、スパンレベルの微粒な注釈付きデータセットの不足は、モデルによるヘイトスピーチの深い意味的理解を制限する。
本研究は,1)中国における最初のハイトスピーチデータセットであるSpan-level Target-Aware Toxicity extract dataset (STATE ToxiCN)を導入し,それを用いた既存のモデルのヘイトセマンティック理解を評価する。
2)中国におけるヘイト用語の包括的研究,LLMによるヘイト意味論の解釈能力について検討した。
(3) 注釈付き辞書をモデルに統合し,ヘイトスピーチ検出性能を大幅に向上させる手法を提案する。
我々の研究は、中国のヘイトスピーチ検出研究の解釈可能性を高めるための貴重なリソースと洞察を提供する。
関連論文リスト
- Can Prompting LLMs Unlock Hate Speech Detection across Languages? A Zero-shot and Few-shot Study [59.30098850050971]
この研究は、8つの非英語言語にわたるLLMのプロンプトに基づく検出を評価する。
実世界の評価セットのほとんどにおいて、ゼロショットと少数ショットが微調整エンコーダモデルに遅れを生じさせる一方で、ヘイトスピーチ検出のための関数的テストのより優れた一般化を実現していることを示す。
論文 参考訳(メタデータ) (2025-05-09T16:00:01Z) - Evaluation of Hate Speech Detection Using Large Language Models and Geographical Contextualization [0.0]
本研究では,多言語および多様な地理的文脈におけるヘイトスピーチ検出におけるLLMの性能について,系統的に検討した。
Llama2 (13b)、Codellama (7b)、DeepSeekCoder (6.7b)の3つの最先端LCMを評価した。
コーデラマは70.6%、F1スコアは52.18%、DeepSeekCoderは265カ所中63カ所を正確に検出した。
論文 参考訳(メタデータ) (2025-02-26T22:59:36Z) - STATE ToxiCN: A Benchmark for Span-level Target-Aware Toxicity Extraction in Chinese Hate Speech Detection [14.863778285778897]
中国語ヘイトスピーチのきめ細かい検出方法を提案する。
まず,ターゲット・Argument-Hateful-Group Quaruples(STATE ToxiCN)を含むデータセットを構築する。
次に,既存モデルのヘイトスピーチ検出性能について検討した。
最後に,中国のヘイトフルスラングに関する最初の研究を行い,LLMがそのような表現を検出する能力を評価する。
論文 参考訳(メタデータ) (2025-01-26T08:45:37Z) - An Investigation of Large Language Models for Real-World Hate Speech
Detection [46.15140831710683]
既存の手法の大きな制限は、ヘイトスピーチ検出がコンテキストの問題である点である。
近年,大規模言語モデル (LLM) はいくつかの自然言語処理において最先端の性能を示した。
本研究は, ヘイトスピーチの文脈を効果的に把握する上で, 巧妙な推論プロンプトが有効であることを明らかにする。
論文 参考訳(メタデータ) (2024-01-07T00:39:33Z) - Hate Speech Detection via Dual Contrastive Learning [25.878271501274245]
本稿では,ヘイトスピーチ検出のための新しい双方向コントラスト学習フレームワークを提案する。
本フレームワークは,自己教師型学習と教師型学習の損失を協調的に最適化し,スパンレベルの情報を取得する。
公開可能な2つの英語データセットの実験を行い、実験結果から、提案モデルが最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T13:23:36Z) - Model-Agnostic Meta-Learning for Multilingual Hate Speech Detection [23.97444551607624]
ソーシャルメディアにおけるヘイトスピーチは増加傾向にあり、そのような有害なコンテンツを検出することが大きな牽引力となっている。
HateMAMLはモデルに依存しないメタ学習ベースのフレームワークで、低リソース言語でのヘイトスピーチ検出を効果的に行う。
大規模な実験は、8つの異なる低リソース言語にわたる5つのデータセットで実施されている。
論文 参考訳(メタデータ) (2023-03-04T22:28:29Z) - Anti-Asian Hate Speech Detection via Data Augmented Semantic Relation
Inference [4.885207279350052]
本稿では,自然言語推論フレームワークにおけるヘイトスピーチ検出を強化するために,感情ハッシュタグを活用する新しい手法を提案する。
我々は,(1)オンライン投稿と感情ハッシュタグ間の意味的関係推論,(2)これらの投稿に対する感情分類の2つのタスクを同時に実行する新しいフレームワークSRICを設計する。
論文 参考訳(メタデータ) (2022-04-14T15:03:35Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。