論文の概要: ToxBuster: In-game Chat Toxicity Buster with BERT
- arxiv url: http://arxiv.org/abs/2305.12542v1
- Date: Sun, 21 May 2023 18:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:46:50.941756
- Title: ToxBuster: In-game Chat Toxicity Buster with BERT
- Title(参考訳): ToxBuster:BERTを使ったゲーム内チャット毒性バスター
- Authors: Zachary Yang, Yasmine Maricar, Mohammadreza Davari, Nicolas
Grenon-Godbout, Reihaneh Rabbany
- Abstract要約: ToxBusterは、Rainbow Six SiegeとFor Honorの194万行のゲームチャットの比較的大規模なデータセットに基づいてトレーニングされた、シンプルでスケーラブルなモデルである。
既存の最先端と比較して、ToxBusterの精度は82.95%(+7)、リコール率は83.56%(+57)である。
- 参考スコア(独自算出の注目度): 2.764897610820181
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Detecting toxicity in online spaces is challenging and an ever more pressing
problem given the increase in social media and gaming consumption. We introduce
ToxBuster, a simple and scalable model trained on a relatively large dataset of
194k lines of game chat from Rainbow Six Siege and For Honor, carefully
annotated for different kinds of toxicity. Compared to the existing
state-of-the-art, ToxBuster achieves 82.95% (+7) in precision and 83.56% (+57)
in recall. This improvement is obtained by leveraging past chat history and
metadata. We also study the implication towards real-time and post-game
moderation as well as the model transferability from one game to another.
- Abstract(参考訳): オンライン空間における毒性の検出は困難であり、ソーシャルメディアとゲーム消費の増加を考えると、ますます差し迫った問題である。
ToxBusterは、Rainbow Six SiegeとFor Honorの194万行のゲームチャットの比較的大規模なデータセットに基づいてトレーニングされた、シンプルでスケーラブルなモデルである。
既存の最先端と比較して、ToxBusterの精度は82.95%(+7)、リコール率は83.56%(+57)である。
この改善は過去のチャット履歴とメタデータを活用して得られる。
また,リアルタイム・ポストゲーム・モデレーションへの意味や,あるゲームから別のゲームへのモデル転送可能性についても検討する。
関連論文リスト
- Uncovering the Viral Nature of Toxicity in Competitive Online Video Games [0.4681661603096334]
フリー・ツー・プレイのアクションゲーム『Call of Duty: Warzone』のプロプライエタリなデータを分析した。
選手のチームメイトが有毒なスピーチを行う確率は、平均的な選手が有毒なスピーチを行う確率の26.1倍から30.3倍になる。
論文 参考訳(メタデータ) (2024-10-01T18:07:06Z) - Challenges for Real-Time Toxicity Detection in Online Games [1.2289361708127877]
有害な行為や悪意のあるプレイヤーは経験を台無しにし、プレイヤーベースを減らし、ゲームやスタジオの成功を損なう可能性がある。
本稿では,テキスト,音声および画像処理問題,行動毒性の観点から,有害なコンテンツ検出に直面する課題について概説する。
論文 参考訳(メタデータ) (2024-07-05T09:38:58Z) - Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks [0.0]
本研究は,ゲーム内チャットにおける有害性の検出において,事前学習したBERTおよびGPT言語モデルの性能を評価し,評価する。
この研究は、BERT(Base-uncased)、BERT(Large-uncased)、GPT-3モデルのトレーニングとテストのために、約2万のゲーム内チャットを収集することができた。
論文 参考訳(メタデータ) (2024-03-19T11:36:53Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Towards Detecting Contextual Real-Time Toxicity for In-Game Chat [5.371337604556311]
ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-20T00:29:57Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - In-game Toxic Language Detection: Shared Task and Attention Residuals [1.9218741065333018]
本稿では,ゲーム内チャットデータを用いたゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(スロットフィリング)のためのモデル/フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-11T04:33:45Z) - CommonsenseQA 2.0: Exposing the Limits of AI through Gamification [126.85096257968414]
現代自然言語理解モデルの能力をテストするベンチマークを構築した。
本研究では,データ構築の枠組みとしてゲーミフィケーションを提案する。
論文 参考訳(メタデータ) (2022-01-14T06:49:15Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Online Learning in Unknown Markov Games [55.07327246187741]
未知のマルコフゲームでオンライン学習を学ぶ。
後方視における最良の反応に対するサブ線形後悔の達成は統計的に困難であることを示す。
サブ線形$tildemathcalO(K2/3)$ regretを$K$のエピソード後に達成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-28T14:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。