論文の概要: Context-Aware Toxicity Detection in Multiplayer Games: Integrating Domain-Adaptive Pretraining and Match Metadata
- arxiv url: http://arxiv.org/abs/2504.01534v1
- Date: Wed, 02 Apr 2025 09:21:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:38.932422
- Title: Context-Aware Toxicity Detection in Multiplayer Games: Integrating Domain-Adaptive Pretraining and Match Metadata
- Title(参考訳): マルチプレイヤーゲームにおけるコンテキスト認識毒性検出:ドメイン適応型事前学習とマッチングメタデータの統合
- Authors: Adrien Schurger-Foy, Rafal Dariusz Kocielnik, Caglar Gulcehre, R. Michael Alvarez,
- Abstract要約: 従来の毒性検知器は孤立したメッセージに焦点を合わせており、正確なモデレーションに必要なより広いコンテキストを欠いている。
これは、特殊スラング、略語、タイポスを含む対話が絡むビデオゲームにおいて特に問題となる。
我々はRoBERTa LLMをビデオゲームに適したモデレーションをサポートし、テキストコンテキストと非テキストコンテキストの両方を統合した。
- 参考スコア(独自算出の注目度): 0.9702021668898856
- License:
- Abstract: The detrimental effects of toxicity in competitive online video games are widely acknowledged, prompting publishers to monitor player chat conversations. This is challenging due to the context-dependent nature of toxicity, often spread across multiple messages or informed by non-textual interactions. Traditional toxicity detectors focus on isolated messages, missing the broader context needed for accurate moderation. This is especially problematic in video games, where interactions involve specialized slang, abbreviations, and typos, making it difficult for standard models to detect toxicity, especially given its rarity. We adapted RoBERTa LLM to support moderation tailored to video games, integrating both textual and non-textual context. By enhancing pretrained embeddings with metadata and addressing the unique slang and language quirks through domain adaptive pretraining, our method better captures the nuances of player interactions. Using two gaming datasets - from Defense of the Ancients 2 (DOTA 2) and Call of Duty$^\circledR$: Modern Warfare$^\circledR$III (MWIII) we demonstrate which sources of context (metadata, prior interactions...) are most useful, how to best leverage them to boost performance, and the conditions conducive to doing so. This work underscores the importance of context-aware and domain-specific approaches for proactive moderation.
- Abstract(参考訳): 競合するオンラインゲームにおける毒性の有害な影響は広く認識されており、パブリッシャーはプレイヤーのチャットを監視できる。
これは、コンテキスト依存的な毒性の性質のため、しばしば複数のメッセージにまたがったり、文脈に依存しない相互作用によって通知されるため、難しい。
従来の毒性検知器は孤立したメッセージに焦点を合わせており、正確なモデレーションに必要なより広いコンテキストを欠いている。
特にビデオゲームでは、特定のスラング、略語、タイプミスを含む相互作用が問題であり、特に希少性を考えると、標準モデルでは毒性を検出するのが困難である。
我々はRoBERTa LLMをビデオゲームに適したモデレーションをサポートし、テキストコンテキストと非テキストコンテキストの両方を統合した。
事前学習した埋め込みをメタデータで強化し、ドメイン適応型事前学習によってユニークなスラングや言語クイックに対処することにより、プレイヤーのインタラクションのニュアンスをよりよく捉えることができる。
Defense of the Ancients 2 (DOTA2) と Call of Duty$^\circledR$: Modern Warfare$^\circledR$III (MWIII) の2つのゲームデータセットを使用することで、どのコンテキストのソース(Metadata、以前のインタラクション...)が最も有用か、パフォーマンスを向上させるためにそれらを最大限に活用する方法、そしてそれを行うための条件を実証する。
この研究は、プロアクティブなモデレーションのためのコンテキスト認識およびドメイン固有のアプローチの重要性を浮き彫りにする。
関連論文リスト
- Uncovering the Viral Nature of Toxicity in Competitive Online Video Games [0.4681661603096334]
フリー・ツー・プレイのアクションゲーム『Call of Duty: Warzone』のプロプライエタリなデータを分析した。
選手のチームメイトが有毒なスピーチを行う確率は、平均的な選手が有毒なスピーチを行う確率の26.1倍から30.3倍になる。
論文 参考訳(メタデータ) (2024-10-01T18:07:06Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z) - In-game Toxic Language Detection: Shared Task and Attention Residuals [10.670973882076797]
ゲーム内での有害な言語は、ゲーム産業やコミュニティにおいてホットポテトとなっている。
ゲーム内チャットの性質が極めて短いため,毒性を検出することは依然として困難である。
本稿では,実際のゲーム内チャットデータを用いて,ゲーム内有害言語共有タスクの確立について述べる。
論文 参考訳(メタデータ) (2022-11-11T04:33:45Z) - Emergent Communication: Generalization and Overfitting in Lewis Games [53.35045559317384]
ルイスシグナリングゲーム(Lewis signaling game)は、言語の出現をシミュレートする単純なコミュニケーションゲームの一種である。
これらのゲームでは、2人のエージェントが協調的なタスクを解決するために通信プロトコルに合意しなければなりません。
これまでの研究によると、強化学習でこのゲームをプレイするように訓練されたエージェントは、望ましくない性質を示す言語を開発する傾向がある。
論文 参考訳(メタデータ) (2022-09-30T09:50:46Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Contextual Games: Multi-Agent Learning with Side Information [57.76996806603094]
各ラウンドでコンテキスト情報によって駆動されるコンテキストゲームの新しいクラスを定式化する。
カーネルベースの規則性仮定を用いて、異なるコンテキストとゲーム結果の相関関係をモデル化する。
本研究では,個々のプレイヤーの文脈的後悔を最小限に抑えるために,そのような相関を利用した新しいオンライン(メタ)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-13T18:37:37Z) - CONDA: a CONtextual Dual-Annotated dataset for in-game toxicity
understanding and detection [1.6085428542036968]
CONDAは,ゲーム内有害言語検出のための新しいデータセットである。
データセットは、1.9Kの完了したDota 2マッチのチャットログから12Kの会話から45Kの発話で構成されている。
ゲーム内毒性分析は、発話、トークン、二重レベルにおけるコンテキストの包括的理解を提供する。
論文 参考訳(メタデータ) (2021-06-11T07:42:12Z) - Toxicity Detection: Does Context Really Matter? [22.083682201142242]
私たちは、投稿の有害性に対する認識を増幅または緩和できる状況があることに気付きました。
意外なことに、文脈が毒性分類器の性能を実際に改善する証拠も見つからない。
これは、コンテキストにアノテートされたコメントのより大きなデータセットの必要性を示している。
論文 参考訳(メタデータ) (2020-06-01T15:03:48Z) - Exploration Based Language Learning for Text-Based Games [72.30525050367216]
本研究は,テキストベースのコンピュータゲームにおいて,最先端の性能を発揮できる探索・模倣学習型エージェントを提案する。
テキストベースのコンピュータゲームは、自然言語でプレイヤーの世界を記述し、プレイヤーがテキストを使ってゲームと対話することを期待する。
これらのゲームは、言語理解、問題解決、および人工エージェントによる言語生成のためのテストベッドと見なすことができるため、興味がある。
論文 参考訳(メタデータ) (2020-01-24T03:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。