論文の概要: Automatically Detecting Cyberbullying Comments on Online Game Forums
- arxiv url: http://arxiv.org/abs/2106.01598v1
- Date: Thu, 3 Jun 2021 05:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:17:55.951357
- Title: Automatically Detecting Cyberbullying Comments on Online Game Forums
- Title(参考訳): オンラインゲームフォーラムにおけるサイバーいじめコメントの自動検出
- Authors: Hanh Hong-Phuc Vo, Hieu Trung Tran, Son T. Luu
- Abstract要約: We use the Cyberbullying dataset collected from World of Warcraft (WoW) and League of Legends (LoL) forums。
我々は、プレイヤーのコメントが悪用されているか否かを自動的に検出するために分類モデルを訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Online game forums are popular to most of game players. They use it to
communicate and discuss the strategy of the game, or even to make friends.
However, game forums also contain abusive and harassment speech, disturbing and
threatening players. Therefore, it is necessary to automatically detect and
remove cyberbullying comments to keep the game forum clean and friendly. We use
the Cyberbullying dataset collected from World of Warcraft (WoW) and League of
Legends (LoL) forums and train classification models to automatically detect
whether a comment of a player is abusive or not. The result obtains 82.69% of
macro F1-score for LoL forum and 83.86% of macro F1-score for WoW forum by the
Toxic-BERT model on the Cyberbullying dataset.
- Abstract(参考訳): オンラインゲームフォーラムは、ほとんどのゲームプレイヤーに人気がある。
彼らはそれを使って、ゲームの戦略を伝え、議論したり、友人を作る。
しかし、ゲームフォーラムには虐待的かつ嫌がらせ的なスピーチ、乱暴かつ脅迫的なプレイヤーも含まれる。
したがって、ゲームフォーラムをクリーンかつフレンドリーに保つために、サイバーいじめコメントを自動的に検出・削除する必要がある。
world of warcraft(wow)とleague of legends(lol)のフォーラムから収集されたcyberbullyingデータセットとトレーニング分類モデルを使用して、プレーヤーのコメントが不正であるかどうかを自動的に検出します。
その結果、LoLフォーラムのマクロF1スコアの82.69%、WoWフォーラムのマクロF1スコアの83.86%を、CyberbullyingデータセットのToxic-BERTモデルで取得した。
関連論文リスト
- Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - Towards Detecting Contextual Real-Time Toxicity for In-Game Chat [5.371337604556311]
ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-20T00:29:57Z) - ToxBuster: In-game Chat Toxicity Buster with BERT [2.764897610820181]
ToxBusterは、Rainbow Six SiegeとFor Honorの194万行のゲームチャットの比較的大規模なデータセットに基づいてトレーニングされた、シンプルでスケーラブルなモデルである。
既存の最先端と比較して、ToxBusterの精度は82.95%(+7)、リコール率は83.56%(+57)である。
論文 参考訳(メタデータ) (2023-05-21T18:53:26Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - In-game Toxic Language Detection: Shared Task and Attention Residuals [1.9218741065333018]
本稿では,ゲーム内チャットデータを用いたゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(スロットフィリング)のためのモデル/フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-11T04:33:45Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Automatic Player Identification in Dota 2 [0.0]
Dota 2のプレイヤーを識別するための機械学習手法を提案する。
我々は,マッチリプレイから抽出したマウスの動き,ゲーム内統計,ゲーム戦略に関するデータを利用する。
2つの異なる試合が同じプレイヤーによってプレイされたかどうかを予測する問題に対して,95%の予測精度が得られる。
論文 参考訳(メタデータ) (2020-08-27T22:58:01Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。