論文の概要: Uncovering the Viral Nature of Toxicity in Competitive Online Video Games
- arxiv url: http://arxiv.org/abs/2410.00978v1
- Date: Tue, 1 Oct 2024 18:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 00:00:02.458637
- Title: Uncovering the Viral Nature of Toxicity in Competitive Online Video Games
- Title(参考訳): 競争力のあるオンラインゲームにおける毒性のウイルス性を明らかにする
- Authors: Jacob Morrier, Amine Mahmassani, R. Michael Alvarez,
- Abstract要約: フリー・ツー・プレイのアクションゲーム『Call of Duty: Warzone』のプロプライエタリなデータを分析した。
選手のチームメイトが有毒なスピーチを行う確率は、平均的な選手が有毒なスピーチを行う確率の26.1倍から30.3倍になる。
- 参考スコア(独自算出の注目度): 0.4681661603096334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Toxicity is a widespread phenomenon in competitive online video games. In addition to its direct undesirable effects, there is a concern that toxicity can spread to others, amplifying the harm caused by a single player's misbehavior. In this study, we estimate whether and to what extent a player's toxic speech spreads, causing their teammates to behave similarly. To this end, we analyze proprietary data from the free-to-play first-person action game Call of Duty: Warzone. We formulate and implement an instrumental variable identification strategy that leverages the network of interactions among players across matches. Our analysis reveals that all else equal, all of a player's teammates engaging in toxic speech increases their probability of engaging in similar behavior by 26.1 to 30.3 times the average player's likelihood of engaging in toxic speech. These findings confirm the viral nature of toxicity, especially toxic speech, in competitive online video games.
- Abstract(参考訳): Toxicityは、競合するオンラインビデオゲームで広く見られる現象である。
直接的な望ましくない効果に加えて、毒性が他人に拡散し、一人のプレーヤーの誤った行動によって引き起こされる害を増幅するのではないかという懸念もある。
本研究では,選手の有害な発言がどの程度広まるかを推定し,チームメイトも同様に振る舞う。
この目的のために,フリーでプレイ可能なアクションゲーム『Call of Duty: Warzone』のプロプライエタリデータを分析した。
我々は,対戦相手間のインタラクションのネットワークを活用する機器変数識別戦略を定式化し,実装する。
分析の結果, 選手のチームメイトが有毒な言動を行う確率は, 平均的な選手が有毒な言動を行う確率の26.1倍から30.3倍に増加することがわかった。
これらの結果から,オンラインゲームにおける毒性,特に有毒な発話のウイルス性が確認された。
関連論文リスト
- Challenges for Real-Time Toxicity Detection in Online Games [1.2289361708127877]
有害な行為や悪意のあるプレイヤーは経験を台無しにし、プレイヤーベースを減らし、ゲームやスタジオの成功を損なう可能性がある。
本稿では,テキスト,音声および画像処理問題,行動毒性の観点から,有害なコンテンツ検出に直面する課題について概説する。
論文 参考訳(メタデータ) (2024-07-05T09:38:58Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - ALONE: A Dataset for Toxic Behavior among Adolescents on Twitter [5.723363140737726]
本稿では,ALONE(AdoLescents ON twittEr)と呼ばれる,高校生間の有害なソーシャルメディアインタラクションのデータセットを提供する。
インターネット利用者の66%近くがオンラインハラスメントを経験しており、41%が個人的体験を主張しており、18%が深刻なオンラインハラスメントに直面している。
我々の観察では、個々のツイートが有害な行動を示す十分な証拠を提供していないことが示されており、インタラクションにおける意味のあるコンテキストの利用により、報告された有害性のあるツイートをハイライトしたり削除したりすることが可能である。
論文 参考訳(メタデータ) (2020-08-14T17:02:55Z) - Cheating in online gaming spreads through observation and victimization [2.7739004171676904]
オンラインマルチプレイヤーファーストパーソンシューティングゲームの100万試合以上における不正行為の拡散について検討した。
我々は、不正行為を観察し経験している人々にとって、社会的伝染は存在する可能性が高いことに気付きました。
論文 参考訳(メタデータ) (2020-03-24T22:38:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。