論文の概要: "Harmless to You, Hurtful to Me!": Investigating the Detection of Toxic Languages Grounded in the Perspective of Youth
- arxiv url: http://arxiv.org/abs/2508.02094v1
- Date: Mon, 04 Aug 2025 06:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.199198
- Title: "Harmless to You, Hurtful to Me!": Investigating the Detection of Toxic Languages Grounded in the Perspective of Youth
- Title(参考訳): 「君にハームレス、僕にハームフル」:若者の立場から見出された有害言語の検出を探る
- Authors: Yaqiong Li, Peng Zhang, Lin Wang, Hansu Gu, Siyuan Qiao, Ning Gu, Tun Lu,
- Abstract要約: 青少年特有の毒性、すなわち、大人によって非毒性とみなされる言語について検討するが、若年者は有害である。
以上の結果から,これらに対する若者の認識は,いくつかの文脈要因と関連していると考えられる。
若年者中心の毒性検出に関する今後の研究について,いくつかの知見を提示する。
- 参考スコア(独自算出の注目度): 20.613877650469647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk perception is subjective, and youth's understanding of toxic content differs from that of adults. Although previous research has conducted extensive studies on toxicity detection in social media, the investigation of youth's unique toxicity, i.e., languages perceived as nontoxic by adults but toxic as youth, is ignored. To address this gap, we aim to explore: 1) What are the features of ``youth-toxicity'' languages in social media (RQ1); 2) Can existing toxicity detection techniques accurately detect these languages (RQ2). For these questions, we took Chinese youth as the research target, constructed the first Chinese ``youth-toxicity'' dataset, and then conducted extensive analysis. Our results suggest that youth's perception of these is associated with several contextual factors, like the source of an utterance and text-related features. Incorporating these meta information into current toxicity detection methods significantly improves accuracy overall. Finally, we propose several insights into future research on youth-centered toxicity detection.
- Abstract(参考訳): リスク認知は主観的であり、青少年の有毒な内容に対する理解は成人のものと異なる。
ソーシャルメディアにおける毒性検出について、これまで広く研究されてきたが、若者特有の毒性、すなわち大人によって非毒性と認識される言語の研究は無視されている。
このギャップに対処するために,私たちは,次のような調査を目標にしています。
1)ソーシャルメディアにおける「青年毒性」言語の特徴(RQ1)
2) 既存の毒性検出技術はこれらの言語を正確に検出できるか(RQ2)。
これらの疑問に対して,中国青少年を研究対象とし,中国初の「青年毒性」データセットを構築し,広範な分析を行った。
以上の結果から,これらに対する若者の認識は,発話やテキスト関連特徴の源泉など,いくつかの文脈要因と関連していると考えられる。
これらのメタ情報を現在の毒性検出手法に組み込むことで、全体的な精度が大幅に向上する。
最後に,若年者中心の毒性検出に関する今後の研究について,いくつかの知見を提示する。
関連論文リスト
- ViToSA: Audio-Based Toxic Spans Detection on Vietnamese Speech Utterances [0.0]
本稿ではベトナム語音声における有害なスパン検出のための最初のデータセットであるViToSA(Vietnamese Toxic Spans Audio)を紹介する。
ASRと有毒なスパン検出を組み合わせたパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-31T17:01:18Z) - Aligned Probing: Relating Toxic Behavior and Model Internals [66.49887503194101]
言語モデル(LM)の振る舞いを協調する新しい解釈可能性フレームワークであるアライメント・プロブリングを導入する。
本フレームワークを用いて,20以上のOLMo,Llama,Mistralモデルについて検討した。
以上の結果から,LMは,特に下層において,入力およびその後の出力の毒性レベルに関する情報を強くエンコードしていることがわかった。
論文 参考訳(メタデータ) (2025-03-17T17:23:50Z) - Enhancing LLM-based Hatred and Toxicity Detection with Meta-Toxic Knowledge Graph [35.700597024800224]
メタ有害知識グラフ上でのグラフ検索を利用して,憎悪や毒性を検出するメタトックスと呼ばれる新しい手法を提案する。
まず,LSMを用いて3段階のパイプラインから有害情報を抽出し,総合的なメタ有害知識グラフを構築する。
第2に、正確な有毒な知識を補うために、検索およびランキングプロセスを介してグラフを問い合わせる。
論文 参考訳(メタデータ) (2024-12-17T06:28:28Z) - FrenchToxicityPrompts: a Large Benchmark for Evaluating and Mitigating Toxicity in French Texts [13.470734853274587]
大規模言語モデル(LLM)はますます普及しているが、バイアス、有害、有害な言語を生み出す傾向にある。
自然発生のフランスプロンプト50Kのデータセットである FrenchToxicityPrompts を作成した。
LLMの4つの主要なオープンソースファミリから14の異なるモデルを評価し,その毒性を評価する。
論文 参考訳(メタデータ) (2024-06-25T14:02:11Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Facilitating Fine-grained Detection of Chinese Toxic Language:
Hierarchical Taxonomy, Resources, and Benchmarks [18.44630180661091]
既存のデータセットには、有害な型や表現の詳細なアノテーションがない。
ポストの毒性を検出するために語彙的知識を導入することが重要である。
本稿では,中国語の有害な言語をきめ細かい検出を容易にする。
論文 参考訳(メタデータ) (2023-05-08T03:50:38Z) - Toxicity in Multilingual Machine Translation at Scale [3.4620477930009472]
大規模評価データセット(HOLISTICBIAS, 472k以上の文)を英語から164言語に翻訳する際に, 付加毒性を評価し, 解析した。
自動毒性評価は、言語間での毒性が0%から5%に変化することを示している。
有害度が最も高い出力言語は低リソースの言語であり、最も高い毒性を持つ人口軸は性的指向、性別、性別、能力である。
論文 参考訳(メタデータ) (2022-10-06T17:26:27Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations [0.0]
一部の著者は、最初の数つのメッセージの特徴を使って会話が有害な状態に陥るかどうかを予測しようとした。
会話の最初のメッセージで表される感情が、今後の毒性を予測するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-06-17T20:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。