論文の概要: X-MuTeST: A Multilingual Benchmark for Explainable Hate Speech Detection and A Novel LLM-consulted Explanation Framework
- arxiv url: http://arxiv.org/abs/2601.03194v1
- Date: Tue, 06 Jan 2026 17:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.039927
- Title: X-MuTeST: A Multilingual Benchmark for Explainable Hate Speech Detection and A Novel LLM-consulted Explanation Framework
- Title(参考訳): X-MuTeST: 説明可能なHate音声検出のための多言語ベンチマークとLLMを用いた新しい説明フレームワーク
- Authors: Mohammad Zia Ur Rehman, Sai Kartheek Reddy Kasu, Shashivardhan Reddy Koppula, Sai Rithwik Reddy Chirra, Shwetank Shekhar Singh, Nagendra Kumar,
- Abstract要約: 本稿では,ヘイトスピーチ検出のための説明可能性誘導学習フレームワークX-MuTeSTを提案する。
我々はこの研究を英語とともにヒンディー語とテルグ語に拡張し、人間の注釈付き論理のベンチマークを提供する。
トレーニング中に人間の合理性を活用することで、分類性能と説明可能性の両方が向上することを示す。
- 参考スコア(独自算出の注目度): 3.3141746520662103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hate speech detection on social media faces challenges in both accuracy and explainability, especially for underexplored Indic languages. We propose a novel explainability-guided training framework, X-MuTeST (eXplainable Multilingual haTe Speech deTection), for hate speech detection that combines high-level semantic reasoning from large language models (LLMs) with traditional attention-enhancing techniques. We extend this research to Hindi and Telugu alongside English by providing benchmark human-annotated rationales for each word to justify the assigned class label. The X-MuTeST explainability method computes the difference between the prediction probabilities of the original text and those of unigrams, bigrams, and trigrams. Final explanations are computed as the union between LLM explanations and X-MuTeST explanations. We show that leveraging human rationales during training enhances both classification performance and explainability. Moreover, combining human rationales with our explainability method to refine the model attention yields further improvements. We evaluate explainability using Plausibility metrics such as Token-F1 and IOU-F1 and Faithfulness metrics such as Comprehensiveness and Sufficiency. By focusing on under-resourced languages, our work advances hate speech detection across diverse linguistic contexts. Our dataset includes token-level rationale annotations for 6,004 Hindi, 4,492 Telugu, and 6,334 English samples. Data and code are available on https://github.com/ziarehman30/X-MuTeST
- Abstract(参考訳): ソーシャルメディア上でのヘイトスピーチ検出は、特に未探索のIndic言語において、正確性と説明可能性の両方の課題に直面している。
本稿では,大規模言語モデル(LLM)からの高レベルな意味推論と従来の注意喚起技術を組み合わせたヘイトスピーチ検出のための,説明可能性誘導型学習フレームワークX-MuTeST(eXplainable Multilingual haTe Speech deTection)を提案する。
我々はこの研究をヒンディー語とテルグ語に英語とともに拡張し、割り当てられたクラスラベルを正当化するために、各単語に人間の注釈付き論理式をベンチマークで提供する。
X-MuTeST説明可能性法は、元のテキストの予測確率とユニグラム、ビッグラム、トリグラムの予測確率の差を計算する。
最終説明は、LLM説明とX-MuTeST説明の結合として計算される。
トレーニング中に人間の合理性を活用することで、分類性能と説明可能性の両方が向上することを示す。
さらに、モデル注意を洗練させるために、人間の理性と説明可能性の手法を組み合わせることで、さらなる改善がもたらされる。
本研究では,Token-F1 や IOU-F1 などの可塑性測定値と,包括性や充足性などの忠実度測定値を用いて説明可能性を評価する。
リソース不足の言語に焦点をあてることで、さまざまな言語コンテキストにわたるヘイトスピーチの検出が進む。
我々のデータセットには、6,004Hindi、4,492Telugu、6,334英語サンプルに対するトークンレベルの合理性アノテーションが含まれています。
データとコードはhttps://github.com/ziarehman30/X-MuTeSTで入手できる。
関連論文リスト
- Fine-Grained Chinese Hate Speech Understanding: Span-Level Resources, Coded Term Lexicon, and Enhanced Detection Frameworks [13.187315629074428]
Span-level Target-Aware Toxicity extract dataset (STATE ToxiCN)を導入する。
我々は、中国語のコード化されたヘイト用語、LLMのヘイトセマンティクスを解釈する能力について、初めて包括的な研究を行った。
本稿では,注釈付き辞書をモデルに統合し,ヘイトスピーチ検出性能を大幅に向上させる手法を提案する。
論文 参考訳(メタデータ) (2025-07-15T13:19:18Z) - DEBATE: A Dataset for Disentangling Textual Ambiguity in Mandarin Through Speech [11.79037119988533]
本稿では,中国独自の音声テキストデータセットであるDEBATEについて述べる。
10人の母語話者によって記録された1,001の丁寧に選択されたあいまいな発話を含んでいる。
我々は、機械と人間の発話意図の理解の間には、明確で大きなパフォーマンスギャップがあることを示す、最先端の3つの大規模音声および音声言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2025-06-09T07:27:22Z) - Speech-IFEval: Evaluating Instruction-Following and Quantifying Catastrophic Forgetting in Speech-Aware Language Models [49.1574468325115]
本稿では,命令追従能力を評価するための評価フレームワークであるSpeech-IFevalを紹介する。
近年のSLMは,音声認識を大規模言語モデル (LLM) と統合し,音声中心の訓練によるテキスト能力の低下を招いている。
以上の結果から, SLM はテキストベースの LLM よりもはるかに高い性能を示し, 基本命令にも耐え難いことが示唆された。
論文 参考訳(メタデータ) (2025-05-25T08:37:55Z) - Towards Interpretable Hate Speech Detection using Large Language Model-extracted Rationales [15.458557611029518]
ソーシャルメディアプラットフォームは、ユーザーが対人的な議論を行い、意見を述べるための重要な場である。
ヘイトスピーチのインスタンスを自動的に識別し、フラグを付ける必要がある。
本稿では,現在最先端の大規模言語モデル (LLM) を用いて,入力テキストから有理形の特徴を抽出することを提案する。
論文 参考訳(メタデータ) (2024-03-19T03:22:35Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Saliency Map Verbalization: Comparing Feature Importance Representations
from Model-free and Instruction-based Methods [6.018950511093273]
サージェンシマップは、重要な入力特徴を特定することによって、ニューラルネットワークの予測を説明することができる。
我々は,サリエンシマップを自然言語に翻訳する未調査課題を定式化する。
本研究では,従来の特徴強調表現と比較した2つの新手法(検索ベースおよび命令ベース言語化)を比較した。
論文 参考訳(メタデータ) (2022-10-13T17:48:15Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。