論文の概要: SEAHateCheck: Functional Tests for Detecting Hate Speech in Low-Resource Languages of Southeast Asia
- arxiv url: http://arxiv.org/abs/2603.16070v1
- Date: Tue, 17 Mar 2026 02:39:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.075621
- Title: SEAHateCheck: Functional Tests for Detecting Hate Speech in Low-Resource Languages of Southeast Asia
- Title(参考訳): SEAHateCheck:東南アジア低資源言語におけるヘイトスピーチ検出機能テスト
- Authors: Ri Chi Ng, Aditi Kumaresan, Yujia Hu, Roy Ka-Wei Lee,
- Abstract要約: インドネシア、タイ、フィリピン、ベトナムに合わせた先駆的なデータセットであるSEAHateCheckを紹介します。
HateCheckの機能テストフレームワークをベースに構築されたSEAHateCheckは、大きな言語モデルによって強化された文化的に関連するテストケースを提供する。
最先端および多言語モデルによる実験により、特定の低リソース言語におけるヘイトスピーチの検出の限界が明らかになった。
- 参考スコア(独自算出の注目度): 12.012749590510928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hate speech detection relies heavily on linguistic resources, which are primarily available in high-resource languages such as English and Chinese, creating barriers for researchers and platforms developing tools for low-resource languages in Southeast Asia, where diverse socio-linguistic contexts complicate online hate moderation. To address this, we introduce SEAHateCheck, a pioneering dataset tailored to Indonesia, Thailand, the Philippines, and Vietnam, covering Indonesian, Tagalog, Thai, and Vietnamese. Building on HateCheck's functional testing framework and refining SGHateCheck's methods, SEAHateCheck provides culturally relevant test cases, augmented by large language models and validated by local experts for accuracy. Experiments with state-of-the-art and multilingual models revealed limitations in detecting hate speech in specific low-resource languages. In particular, Tagalog test cases showed the lowest model accuracy, likely due to linguistic complexity and limited training data. In contrast, slang-based functional tests proved the hardest, as models struggled with culturally nuanced expressions. The diagnostic insights of SEAHateCheck further exposed model weaknesses in implicit hate detection and models' struggles with counter-speech expression. As the first functional test suite for these Southeast Asian languages, this work equips researchers with a robust benchmark, advancing the development of practical, culturally attuned hate speech detection tools for inclusive online content moderation.
- Abstract(参考訳): ヘイトスピーチ検出は言語資源に大きく依存しており、主に英語や中国語などの高リソース言語で利用でき、東南アジアの低リソース言語のためのツールを開発する研究者やプラットフォームにとって障壁となる。
この問題を解決するために、インドネシア、タイ、フィリピン、ベトナムを対象とする先駆的なデータセットであるSEAHateCheckを紹介します。
HateCheckの機能テストフレームワークを構築し、SGHateCheckのメソッドを精錬することで、SEAHateCheckは文化的に関連するテストケースを提供する。
最先端および多言語モデルによる実験により、特定の低リソース言語におけるヘイトスピーチの検出の限界が明らかになった。
特にタガログテストでは、言語学的複雑さと限られた訓練データのために、最も低いモデル精度を示した。
対照的に、スラングに基づく機能テストは、モデルが文化的にニュアンスな表現に苦しんだため、最も難しいことが証明された。
SEAHateCheckの診断的洞察は、暗黙のヘイト検出におけるモデルの弱点と、反音声表現に対するモデルの苦労をさらに明らかにした。
これらの東南アジア言語のための最初の機能テストスイートとして、この研究は研究者に堅牢なベンチマークを与え、包括的オンラインコンテンツモデレーションのための実践的で文化的に調整されたヘイトスピーチ検出ツールの開発を推進した。
関連論文リスト
- Language Matters: How Do Multilingual Input and Reasoning Paths Affect Large Reasoning Models? [59.970391602080205]
多言語トレーニングにも拘わらず、LRMはテスト時に高リソース言語での推論をデフォルトとする傾向にある。
文化的推論は、推論タスクのパフォーマンスを低下させるが、文化的なタスクに恩恵を与える一方、安全性評価は言語固有の振る舞いを示す。
論文 参考訳(メタデータ) (2025-05-23T02:46:18Z) - Can Prompting LLMs Unlock Hate Speech Detection across Languages? A Zero-shot and Few-shot Study [59.30098850050971]
この研究は、8つの非英語言語にわたるLLMのプロンプトに基づく検出を評価する。
実世界の評価セットのほとんどにおいて、ゼロショットと少数ショットが微調整エンコーダモデルに遅れを生じさせる一方で、ヘイトスピーチ検出のための関数的テストのより優れた一般化を実現していることを示す。
論文 参考訳(メタデータ) (2025-05-09T16:00:01Z) - Exploring Large Language Models for Hate Speech Detection in Rioplatense Spanish [0.08192907805418582]
ヘイトスピーチ検出は多くの言語変種、スラング、スラー、表現モダリティ、文化的ニュアンスを扱う。
本研究では,リオプラテンセ・スペイン語のヘイトスピーチ検出における大規模言語モデルの性能について,簡単な解析を行った。
論文 参考訳(メタデータ) (2024-10-16T02:32:12Z) - SGHateCheck: Functional Tests for Detecting Hate Speech in Low-Resource Languages of Singapore [4.694559977556868]
textsfSGHateCheckはシンガポールと東南アジアの言語的・文化的文脈のために設計された新しいフレームワークである。
textsfSGHateCheckは、最先端モデルの重大な欠陥を明らかにし、センシティブなコンテンツモデレーションの欠如を強調している。
論文 参考訳(メタデータ) (2024-05-03T04:18:10Z) - Model-Agnostic Meta-Learning for Multilingual Hate Speech Detection [23.97444551607624]
ソーシャルメディアにおけるヘイトスピーチは増加傾向にあり、そのような有害なコンテンツを検出することが大きな牽引力となっている。
HateMAMLはモデルに依存しないメタ学習ベースのフレームワークで、低リソース言語でのヘイトスピーチ検出を効果的に行う。
大規模な実験は、8つの異なる低リソース言語にわたる5つのデータセットで実施されている。
論文 参考訳(メタデータ) (2023-03-04T22:28:29Z) - Multilingual Auxiliary Tasks Training: Bridging the Gap between
Languages for Zero-Shot Transfer of Hate Speech Detection Models [3.97478982737167]
副タスクの微調整によって得られる言語間知識プロキシにより、ヘイトスピーチ検出モデルがどのような恩恵を受けるかを示す。
本稿では,言語間のヘイトスピーチ検出モデルのゼロショット転送を改善するために,多言語補助タスクの訓練を提案する。
論文 参考訳(メタデータ) (2022-10-24T08:26:51Z) - Multilingual HateCheck: Functional Tests for Multilingual Hate Speech
Detection Models [14.128029444990895]
HateCheck(MHC)は,多言語ヘイトスピーチ検出モデルのための機能テストスイートである。
MHCは、他のヘイトスピーチデータセットよりも多くの言語である10言語にわたる34の機能をカバーしている。
我々は,ハイパフォーマンスな多言語ヘイトスピーチ検出モデルの訓練とテストを行い,モノリンガルおよびクロスランガルアプリケーションにおいて重要なモデルの弱点を明らかにする。
論文 参考訳(メタデータ) (2022-06-20T17:54:39Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。