論文の概要: Towards Detecting Contextual Real-Time Toxicity for In-Game Chat
- arxiv url: http://arxiv.org/abs/2310.18330v1
- Date: Fri, 20 Oct 2023 00:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 14:07:25.525996
- Title: Towards Detecting Contextual Real-Time Toxicity for In-Game Chat
- Title(参考訳): ゲーム内チャットにおけるコンテクストリアルタイム毒性検出の試み
- Authors: Zachary Yang, Nicolas Grenan-Godbout, Reihaneh Rabbany
- Abstract要約: ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 5.371337604556311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time toxicity detection in online environments poses a significant
challenge, due to the increasing prevalence of social media and gaming
platforms. We introduce ToxBuster, a simple and scalable model that reliably
detects toxic content in real-time for a line of chat by including chat history
and metadata. ToxBuster consistently outperforms conventional toxicity models
across popular multiplayer games, including Rainbow Six Siege, For Honor, and
DOTA 2. We conduct an ablation study to assess the importance of each model
component and explore ToxBuster's transferability across the datasets.
Furthermore, we showcase ToxBuster's efficacy in post-game moderation,
successfully flagging 82.1% of chat-reported players at a precision level of
90.0%. Additionally, we show how an additional 6% of unreported toxic players
can be proactively moderated.
- Abstract(参考訳): オンライン環境におけるリアルタイム毒性検出は,ソーシャルメディアやゲームプラットフォームの普及に伴い,大きな課題となっている。
toxbusterは,チャット履歴やメタデータを含めることで,リアルタイムに有害なコンテンツを検出可能な,シンプルでスケーラブルなモデルである。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
我々は,各モデルコンポーネントの重要性を評価し,データセット間の toxbuster の転送可能性を検討するため,アブレーション研究を行う。
さらに,ゲーム後モデレーションにおけるtoxbusterの有効性を示し,精度90.0%で82.1%のプレーヤにフラグを付けることに成功した。
さらに,未報告の有毒選手の6%が積極的にモデレートできることを示す。
関連論文リスト
- Uncovering the Viral Nature of Toxicity in Competitive Online Video Games [0.4681661603096334]
フリー・ツー・プレイのアクションゲーム『Call of Duty: Warzone』のプロプライエタリなデータを分析した。
選手のチームメイトが有毒なスピーチを行う確率は、平均的な選手が有毒なスピーチを行う確率の26.1倍から30.3倍になる。
論文 参考訳(メタデータ) (2024-10-01T18:07:06Z) - Challenges for Real-Time Toxicity Detection in Online Games [1.2289361708127877]
有害な行為や悪意のあるプレイヤーは経験を台無しにし、プレイヤーベースを減らし、ゲームやスタジオの成功を損なう可能性がある。
本稿では,テキスト,音声および画像処理問題,行動毒性の観点から,有害なコンテンツ検出に直面する課題について概説する。
論文 参考訳(メタデータ) (2024-07-05T09:38:58Z) - Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks [0.0]
本研究は,ゲーム内チャットにおける有害性の検出において,事前学習したBERTおよびGPT言語モデルの性能を評価し,評価する。
この研究は、BERT(Base-uncased)、BERT(Large-uncased)、GPT-3モデルのトレーニングとテストのために、約2万のゲーム内チャットを収集することができた。
論文 参考訳(メタデータ) (2024-03-19T11:36:53Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - ToxicChat: Unveiling Hidden Challenges of Toxicity Detection in
Real-World User-AI Conversation [43.356758428820626]
ToxicChatは、オープンソースのチャットボットからの実際のユーザクエリに基づく、新しいベンチマークである。
既存の毒性データセットに基づいてトレーニングされたモデルの体系的評価は、ToxicChatのこのユニークなドメインに適用した場合の欠点を示している。
将来的には、ToxicChatは、ユーザとAIインタラクションのための安全で健全な環境を構築するためのさらなる進歩を促進する上で、貴重なリソースになり得る。
論文 参考訳(メタデータ) (2023-10-26T13:35:41Z) - ToxBuster: In-game Chat Toxicity Buster with BERT [2.764897610820181]
ToxBusterは、Rainbow Six SiegeとFor Honorの194万行のゲームチャットの比較的大規模なデータセットに基づいてトレーニングされた、シンプルでスケーラブルなモデルである。
既存の最先端と比較して、ToxBusterの精度は82.95%(+7)、リコール率は83.56%(+57)である。
論文 参考訳(メタデータ) (2023-05-21T18:53:26Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - In-game Toxic Language Detection: Shared Task and Attention Residuals [1.9218741065333018]
本稿では,ゲーム内チャットデータを用いたゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(スロットフィリング)のためのモデル/フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-11T04:33:45Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。