論文の概要: Trustworthy Hate Speech Detection Through Visual Augmentation
- arxiv url: http://arxiv.org/abs/2409.13557v1
- Date: Fri, 20 Sep 2024 14:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:30:58.130652
- Title: Trustworthy Hate Speech Detection Through Visual Augmentation
- Title(参考訳): 視覚増強による信頼できるヘイトスピーチ検出
- Authors: Ziyuan Yang, Ming Yan, Yingyu Chen, Hui Wang, Zexin Lu, Yi Zhang,
- Abstract要約: 現在のヘイトスピーチ検出方法は、ヘイトスピーチの本質的な不確実性を見落としている。
視覚拡張による信頼に値するヘイトスピーチ検出法(TrusV-HSD)を提案する。
公開HSDデータセットを用いた実験では,TrusV-HSDの有効性が示され,従来の手法よりも顕著な改善が見られた。
- 参考スコア(独自算出の注目度): 19.345349472165854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The surge of hate speech on social media platforms poses a significant challenge, with hate speech detection~(HSD) becoming increasingly critical. Current HSD methods focus on enriching contextual information to enhance detection performance, but they overlook the inherent uncertainty of hate speech. We propose a novel HSD method, named trustworthy hate speech detection method through visual augmentation (TrusV-HSD), which enhances semantic information through integration with diffused visual images and mitigates uncertainty with trustworthy loss. TrusV-HSD learns semantic representations by effectively extracting trustworthy information through multi-modal connections without paired data. Our experiments on public HSD datasets demonstrate the effectiveness of TrusV-HSD, showing remarkable improvements over conventional methods.
- Abstract(参考訳): ソーシャルメディアプラットフォームでのヘイトスピーチの急増は、ヘイトスピーチ検出(HSD)がますます批判的になり、大きな課題となっている。
現在のHSD法は、検出性能を高めるために文脈情報を充実させることに重点を置いているが、ヘイトスピーチの本質的な不確実性を見落としている。
本稿では,視覚的拡張(TrusV-HSD)による信頼に値するヘイトスピーチ検出手法を提案する。
TrusV-HSDは、ペアデータのないマルチモーダル接続を通じて、信頼できる情報を効果的に抽出することで意味表現を学習する。
公開HSDデータセットを用いた実験では,TrusV-HSDの有効性が示され,従来の手法よりも顕著な改善が見られた。
関連論文リスト
- Bridging Modalities: Enhancing Cross-Modality Hate Speech Detection with Few-Shot In-Context Learning [4.136573141724715]
インターネット上でのヘイトスピーチは、デジタルプラットフォームの安全性にとって大きな課題となる。
近年の研究では、特定のモダリティに合わせた検出モデルが開発されている。
本研究では,大規模言語モデルを用いたテキスト内学習を多用した広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-10-08T01:27:12Z) - HARE: Explainable Hate Speech Detection with Step-by-Step Reasoning [29.519687405350304]
本稿では,大規模言語モデル(LLM)の推論能力を利用して,ヘイトスピーチの説明のギャップを埋めるヘイトスピーチ検出フレームワークHAREを紹介する。
SBICとImplicit Hateベンチマークの実験では、モデル生成データを用いた手法がベースラインを一貫して上回ることを示した。
提案手法は,訓練されたモデルの説明品質を高め,未知のデータセットへの一般化を改善する。
論文 参考訳(メタデータ) (2023-11-01T06:09:54Z) - SememeASR: Boosting Performance of End-to-End Speech Recognition against
Domain and Long-Tailed Data Shift with Sememe Semantic Knowledge [58.979490858061745]
セメムに基づくセマンティック知識情報を音声認識に導入する。
実験の結果,セム情報により音声認識の有効性が向上することが示された。
さらに,本実験により,セメム知識が長期データ認識を改善することが確認された。
論文 参考訳(メタデータ) (2023-09-04T08:35:05Z) - Audio-visual End-to-end Multi-channel Speech Separation, Dereverberation
and Recognition [52.11964238935099]
本稿では,音声-視覚的多チャンネル音声分離,デバーベレーション,認識手法を提案する。
ビデオ入力は、マスクベースのMVDR音声分離、DNN-WPEまたはスペクトルマッピング(SpecM)ベースの音声残響フロントエンドで一貫して実証される。
オックスフォードLSS2データセットのシミュレーションや再生を用いて合成した重畳および残響音声データについて実験を行った。
論文 参考訳(メタデータ) (2023-07-06T10:50:46Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Audio-visual multi-channel speech separation, dereverberation and
recognition [70.34433820322323]
本稿では,音声-視覚的多チャンネル音声分離,デバーベレーション,認識手法を提案する。
音声を用いた場合の視覚的モダリティの利点は、2つのニューラルデバーベレーションアプローチでのみ示される。
LRS2データセットを用いて行った実験から,提案手法がベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-04-05T04:16:03Z) - End-to-End Active Speaker Detection [58.7097258722291]
本稿では,特徴学習と文脈予測を共同で学習するエンド・ツー・エンドのトレーニングネットワークを提案する。
また、時間間グラフニューラルネットワーク(iGNN)ブロックを導入し、ASD問題における主要なコンテキストのソースに応じてメッセージパッシングを分割する。
実験により、iGNNブロックからの集約された特徴はASDにより適しており、その結果、最先端のアートパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2022-03-27T08:55:28Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - To BAN or not to BAN: Bayesian Attention Networks for Reliable Hate
Speech Detection [3.7768834126209234]
ヘイトスピーチは、ユーザ生成コンテンツの管理において重要な問題である。攻撃的コンテンツを削除したり、誤動作を禁止したりするには、コンテンツモデレーターは信頼できるヘイトスピーチ検知器が必要である。
BERTモデルのようなトランスフォーマーアーキテクチャに基づくディープニューラルネットワークは、ヘイトスピーチ検出を含む多くの自然言語分類タスクにおいて優れたパフォーマンスを達成する。
変圧器モデルのアテンション層内におけるモンテカルロのドロップアウトを用いたベイズ法による信頼性推定法を提案する。
論文 参考訳(メタデータ) (2020-07-10T11:09:00Z) - Towards Hate Speech Detection at Large via Deep Generative Modeling [4.080068044420974]
ヘイトスピーチ検出はソーシャルメディアプラットフォームにおいて重要な問題である。
生成言語モデルにより生成された100万件の現実的憎悪と非憎悪のシーケンスのデータセットを提示する。
5つの公開ヘイトスピーチデータセットで一貫した、重要なパフォーマンス改善を実証する。
論文 参考訳(メタデータ) (2020-05-13T15:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。