論文の概要: RV-HATE: Reinforced Multi-Module Voting for Implicit Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2510.10971v1
- Date: Mon, 13 Oct 2025 03:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.181348
- Title: RV-HATE: Reinforced Multi-Module Voting for Implicit Hate Speech Detection
- Title(参考訳): RV-HATE:暗黙のヘイト音声検出のための強化多重モード投票
- Authors: Yejin Lee, Hyeseon Ahn, Yo-Sub Han,
- Abstract要約: RV-HATEは、各ヘイトスピーチデータセットのデータセット固有の特徴を考慮に入れた検出フレームワークである。
このフレームワークは強化学習を使用して、与えられたデータセットに対する各モジュールのコントリビューションを決定するウェイトを最適化する。
提案手法は暗黙のヘイトスピーチに効果的に対処し,従来の静的手法よりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 7.1932638143867775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hate speech remains prevalent in human society and continues to evolve in its forms and expressions. Modern advancements in internet and online anonymity accelerate its rapid spread and complicate its detection. However, hate speech datasets exhibit diverse characteristics primarily because they are constructed from different sources and platforms, each reflecting different linguistic styles and social contexts. Despite this diversity, prior studies on hate speech detection often rely on fixed methodologies without adapting to data-specific features. We introduce RV-HATE, a detection framework designed to account for the dataset-specific characteristics of each hate speech dataset. RV-HATE consists of multiple specialized modules, where each module focuses on distinct linguistic or contextual features of hate speech. The framework employs reinforcement learning to optimize weights that determine the contribution of each module for a given dataset. A voting mechanism then aggregates the module outputs to produce the final decision. RV-HATE offers two primary advantages: (1)~it improves detection accuracy by tailoring the detection process to dataset-specific attributes, and (2)~it also provides interpretable insights into the distinctive features of each dataset. Consequently, our approach effectively addresses implicit hate speech and achieves superior performance compared to conventional static methods. Our code is available at https://github.com/leeyejin1231/RV-HATE.
- Abstract(参考訳): ヘイトスピーチは人間の社会で広く普及し、形や表現の進化を続けている。
インターネットとオンライン匿名の現代的進歩は、その急速な普及を加速し、その検出を複雑にしている。
しかし、ヘイトスピーチデータセットは、主に異なるソースとプラットフォームから構築され、それぞれ異なる言語スタイルと社会的文脈を反映しているため、様々な特徴を示す。
この多様性にもかかわらず、ヘイトスピーチ検出に関する先行研究は、しばしばデータ固有の特徴に適応することなく、固定された方法論に依存している。
本稿では,各ヘイトスピーチデータセットのデータセット固有の特徴を考慮に入れた検出フレームワークであるRV-HATEを紹介する。
RV-HATEは複数の特殊なモジュールから構成されており、各モジュールはヘイトスピーチの言語的特徴や文脈的特徴に焦点を当てている。
このフレームワークは強化学習を使用して、与えられたデータセットに対する各モジュールのコントリビューションを決定するウェイトを最適化する。
次に投票機構がモジュールの出力を集約して最終決定を生成する。
1) - 検出プロセスをデータセット固有の属性に調整することで検出精度を向上し、(2) - データセット特有の特徴に対する解釈可能な洞察を提供する。
その結果,提案手法は暗黙のヘイトスピーチを効果的に処理し,従来の静的手法に比べて優れた性能を実現する。
私たちのコードはhttps://github.com/leeyejin1231/RV-HATEで利用可能です。
関連論文リスト
- AHELM: A Holistic Evaluation of Audio-Language Models [78.20477815156484]
マルチモーダルオーディオ言語モデル(ALM)は、インターリーブされた音声とテキストを入力および出力テキストとして取り込む。
AHELMは、PARADEとCoRe-Benchと呼ばれる2つの新しい合成オーディオテキストデータセットを含む、さまざまなデータセットを集約するベンチマークである。
また、モデル間の等価比較を確保するために、プロンプト、推論パラメータ、評価指標を標準化する。
論文 参考訳(メタデータ) (2025-08-29T07:40:39Z) - A Unified Multi-Task Learning Architecture for Hate Detection Leveraging User-Based Information [23.017068553977982]
ヘイトスピーチ、攻撃的言語、攻撃性、人種差別、性差別、その他の虐待的言語は、ソーシャルメディアでよく見られる現象である。
ヘイトコンテンツを大規模にフィルタリングする人工知能(AI)ベースの介入が必要である。
本稿では,ユーザ内およびユーザ間情報を活用することで,英語のヘイトスピーチ識別を改善するユニークなモデルを提案する。
論文 参考訳(メタデータ) (2024-11-11T10:37:11Z) - LLMs and Finetuning: Benchmarking cross-domain performance for hate speech detection [9.166963162285064]
本研究では,ヘイトスピーチの同定における事前学習および微調整型大言語モデル(LLM)の有効性と適応性について検討した。
LLMは、事前トレーニングなしでも最先端技術に対して大きな優位性を提供します。
論文 参考訳(メタデータ) (2023-10-29T10:07:32Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Selecting and combining complementary feature representations and
classifiers for hate speech detection [6.745479230590518]
ヘイトスピーチは、毎日発生する大量のデータのために、ソーシャルネットワークにおいて大きな問題である。
最近の研究は、憎しみのあるポストと単に皮肉や攻撃的な言語を区別するために必要なニュアンスを扱う機械学習(ML)の有用性を示している。
この研究は、複数の特徴抽出手法と異なる分類モデルの組み合わせが必要であると主張している。
論文 参考訳(メタデータ) (2022-01-18T03:46:49Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - Constructing interval variables via faceted Rasch measurement and
multitask deep learning: a hate speech application [63.10266319378212]
本稿では,教師付き深層学習と多面的ラッシュアイテム応答理論(IRT)構築手法を組み合わせることで,連続区間スペクトル上の複素変数を測定する手法を提案する。
われわれは、YouTube、Twitter、Redditから5万件のソーシャルメディアコメントを収集し、1万1000人の米国拠点のAmazon Mechanical Turkの労働者によってラベル付けされたデータセット上で、この新しい手法を実証した。
論文 参考訳(メタデータ) (2020-09-22T02:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。