論文の概要: ToxiTwitch: Toward Emote-Aware Hybrid Moderation for Live Streaming Platforms
- arxiv url: http://arxiv.org/abs/2601.15605v1
- Date: Thu, 22 Jan 2026 03:12:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.478759
- Title: ToxiTwitch: Toward Emote-Aware Hybrid Moderation for Live Streaming Platforms
- Title(参考訳): ToxiTwitch: ライブストリーミングプラットフォームのためのEmote-Aware Hybrid Moderation
- Authors: Baktash Ansari, Shiza Ali, Elias Martin, Maryna Sivachenko, Afra Mashhadi,
- Abstract要約: Twitchに合わせた毒性検出手法を探索的に比較した。
分析の結果,Emotesを組み込むことで有害な行動の検出が向上することが判明した。
ToxiTwitchは、LLM生成したテキストと表の埋め込みと従来の機械学習分類器を組み合わせたハイブリッドモデルである。
- 参考スコア(独自算出の注目度): 4.632366780742502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of live-streaming platforms such as Twitch has introduced complex challenges in moderating toxic behavior. Traditional moderation approaches, such as human annotation and keyword-based filtering, have demonstrated utility, but human moderators on Twitch constantly struggle to scale effectively in the fast-paced, high-volume, and context-rich chat environment of the platform while also facing harassment themselves. Recent advances in large language models (LLMs), such as DeepSeek-R1-Distill and Llama-3-8B-Instruct, offer new opportunities for toxicity detection, especially in understanding nuanced, multimodal communication involving emotes. In this work, we present an exploratory comparison of toxicity detection approaches tailored to Twitch. Our analysis reveals that incorporating emotes improves the detection of toxic behavior. To this end, we introduce ToxiTwitch, a hybrid model that combines LLM-generated embeddings of text and emotes with traditional machine learning classifiers, including Random Forest and SVM. In our case study, the proposed hybrid approach reaches up to 80 percent accuracy under channel-specific training (with 13 percent improvement over BERT and F1-score of 76 percent). This work is an exploratory study intended to surface challenges and limits of emote-aware toxicity detection on Twitch.
- Abstract(参考訳): Twitchのようなライブストリーミングプラットフォームの急速な成長は、有害な振る舞いを緩和する複雑な課題をもたらしている。
人間のアノテーションやキーワードベースのフィルタリングといった従来のモデレーションアプローチは、実用性を示しているが、Twitch上の人間モデレーターは、プラットフォームの高速で高ボリュームでコンテキストに富んだチャット環境において、常に効果的にスケールするのに苦労し、ハラスメント自体に直面している。
DeepSeek-R1-Distill や Llama-3-8B-Instruct のような大規模言語モデル (LLMs) の最近の進歩は、特に、表を含むニュアンスでマルチモーダルなコミュニケーションを理解する上で、毒性検出の新しい機会を提供する。
本研究ではTwitchに合わせた毒性検出手法の探索的比較を示す。
分析の結果,Emotesを組み込むことで有害な行動の検出が向上することが判明した。
この目的のために,テキストと表のLCM生成した埋め込みと,ランダムフォレストやSVMを含む従来の機械学習分類器を組み合わせたハイブリッドモデルであるToxiTwitchを紹介した。
今回のケーススタディでは、提案されたハイブリッドアプローチは、チャネル固有のトレーニングで最大80%の精度に達する(BERTとF1スコアは66%)。
本研究はTwitch上でのEmote-Aware toxicity検出の課題と限界を明らかにするための探索研究である。
関連論文リスト
- Synthetic Voices, Real Threats: Evaluating Large Text-to-Speech Models in Generating Harmful Audio [63.18443674004945]
この研究は、TSシステムを利用して有害なコンテンツを含む音声を生成する、コンテンツ中心の脅威を探究する。
HARMGENは、これらの課題に対処する2つのファミリーにまとめられた5つの攻撃群である。
論文 参考訳(メタデータ) (2025-11-14T03:00:04Z) - Toxic Subword Pruning for Dialogue Response Generation on Large Language Models [51.713448010799986]
toxPrune (textbfToxic Subword textbfPruning) を提案する。
ToxPruneは、明らかに対話応答生成のタスクにおいて、有害言語モデルNSFW-3Bを同時に改善する。
論文 参考訳(メタデータ) (2024-10-05T13:30:33Z) - Efficient Detection of Toxic Prompts in Large Language Models [17.227950637618886]
大型言語モデル(LLM)は、有害または非倫理的な反応を誘発する有害なプロンプトを作る悪意のある個人によって利用することができる。
LLMの有害なプロンプトを効率的に検出する軽量グレーボックスであるToxicDetectorを提案する。
ToxicDetectorの精度は96.39%、偽陽性率は2.00%であり、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-08-21T15:54:04Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Towards Detecting Contextual Real-Time Toxicity for In-Game Chat [5.371337604556311]
ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-20T00:29:57Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - FeelsGoodMan: Inferring Semantics of Twitch Neologisms [0.7734726150561088]
デスクトップは860万本あり、そのうち4万本以上が週に利用された。
表の意味や感情についてはほとんど情報がなく、新しい表やその周波数のドリフトが絶え間なく流入しているため、手動でラベル付けされたデータセットを維持することは不可能である。
単語埋め込みとk-NNに基づくシンプルだが強力な教師なしフレームワークを導入し、語彙外知識を持つ既存のモデルを強化する。
このフレームワークでは,擬似ディクショナリのEmoteの自動生成が可能で,そのようなインジェクションを行う場合でも,上述のベンチマークとほぼ一致できることが示される。
論文 参考訳(メタデータ) (2021-08-18T23:46:46Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。