論文の概要: ToxicTone: A Mandarin Audio Dataset Annotated for Toxicity and Toxic Utterance Tonality
- arxiv url: http://arxiv.org/abs/2505.15773v1
- Date: Wed, 21 May 2025 17:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.799174
- Title: ToxicTone: A Mandarin Audio Dataset Annotated for Toxicity and Toxic Utterance Tonality
- Title(参考訳): ToxicTone: 有害性と有害な発話のトナリティに注釈を付けたマンダリンオーディオデータセット
- Authors: Yu-Xiang Luo, Yi-Cheng Lin, Ming-To Chuang, Jia-Hung Chen, I-Ning Tsai, Pei Xing Kiew, Yueh-Hsuan Huang, Chien-Feng Liu, Yu-Chen Chen, Bo-Han Feng, Wenze Ren, Hung-yi Lee,
- Abstract要約: ToxicToneはこの種の公開データセットとしては最大である。
我々のデータは、様々な現実世界のオーディオから導き出され、13のトピックに分類される。
本研究では,音響的,言語的,感情的特徴を統合したマルチモーダル検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.517662288248225
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite extensive research on toxic speech detection in text, a critical gap remains in handling spoken Mandarin audio. The lack of annotated datasets that capture the unique prosodic cues and culturally specific expressions in Mandarin leaves spoken toxicity underexplored. To address this, we introduce ToxicTone -- the largest public dataset of its kind -- featuring detailed annotations that distinguish both forms of toxicity (e.g., profanity, bullying) and sources of toxicity (e.g., anger, sarcasm, dismissiveness). Our data, sourced from diverse real-world audio and organized into 13 topical categories, mirrors authentic communication scenarios. We also propose a multimodal detection framework that integrates acoustic, linguistic, and emotional features using state-of-the-art speech and emotion encoders. Extensive experiments show our approach outperforms text-only and baseline models, underscoring the essential role of speech-specific cues in revealing hidden toxic expressions.
- Abstract(参考訳): テキスト中の有毒な音声検出に関する広範な研究にもかかわらず、音声マンダリン音声の処理において重要なギャップが残っている。
マンダリンの独特の韻律的手がかりと文化的に特異的な表現を捉えた注釈付きデータセットの欠如は、未発見の有毒を訴えた。
これを解決するために、ToxicTone(この種の最大の公開データセット)を紹介します。毒の種類(例、暴言、いじめ)と毒性源(例、怒り、皮肉、解雇)を区別する詳細なアノテーションを提供します。
我々のデータは、様々な現実世界のオーディオから提供され、13のトピックのカテゴリに分類され、真のコミュニケーションシナリオを反映しています。
また,現状の音声と感情エンコーダを用いて,音響的,言語的,感情的特徴を統合するマルチモーダル検出フレームワークを提案する。
広汎な実験により,本手法はテキストのみおよびベースラインモデルよりも優れており,隠れた有毒な表現を明らかにする上で,音声特異的な手がかりが不可欠であることが示された。
関連論文リスト
- Chinese Toxic Language Mitigation via Sentiment Polarity Consistent Rewrites [39.3555146467512]
ToxiRewriteCNは、感情極性を維持するために明示的に設計された最初の中国のデータセットである。
1,556個の注釈付き三つ子からなり、それぞれに有毒な文、無害な非有毒な書き直し、ラベル付き有毒なスパンを含む。
標準的な表現、絵文字誘発、ホモフォニックな毒性、シングルターンとマルチターンの対話の5つの現実シナリオをカバーしている。
論文 参考訳(メタデータ) (2025-05-21T09:27:18Z) - Dynamics of Toxicity in Political Podcasts [4.5621281512257434]
デジタルメディアにおける毒性は大きな課題を呈するが、ポッドキャストの急速に成長するメディアにおけるそのダイナミクスにはほとんど注意が払われていない。
本稿では,政治ポッドキャストデータを分析し,毒性の出現と伝播を研究することにより,このギャップを解消する。
米国における30以上のポピュラーな政治ポッドキャストにおいて,有毒な言論を体系的に検討した。
論文 参考訳(メタデータ) (2025-01-22T04:58:50Z) - Enhancing Multilingual Voice Toxicity Detection with Speech-Text Alignment [4.2936749846785345]
音声の毒性分類は、音声の意味的内容に大きく依存する。
テキストのセマンティック埋め込みを多ラベル音声毒性分類器に組み込むために,クロスモーダル学習を利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:56:53Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Facilitating Fine-grained Detection of Chinese Toxic Language:
Hierarchical Taxonomy, Resources, and Benchmarks [18.44630180661091]
既存のデータセットには、有害な型や表現の詳細なアノテーションがない。
ポストの毒性を検出するために語彙的知識を導入することが重要である。
本稿では,中国語の有害な言語をきめ細かい検出を容易にする。
論文 参考訳(メタデータ) (2023-05-08T03:50:38Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Speech Toxicity Analysis: A New Spoken Language Processing Task [32.297717021285344]
ヘイトスピーチ(英: hate speech)またはヘイトスピーチ(英: hate speech)は、今日のオンラインソーシャルメディアを悩ませる重要な問題の1つである。
音声音声から有害性を検出する新しい音声言語処理タスクを提案する。
DeToxyは、様々な公開音声データベースから得られた英語音声に対する、初めて公開された毒性アノテートデータセットである。
論文 参考訳(メタデータ) (2021-10-14T17:51:04Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。