論文の概要: In-game Toxic Language Detection: Shared Task and Attention Residuals
- arxiv url: http://arxiv.org/abs/2211.05995v2
- Date: Mon, 14 Nov 2022 04:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:32:37.042890
- Title: In-game Toxic Language Detection: Shared Task and Attention Residuals
- Title(参考訳): ゲーム内有害言語検出:タスクの共有と注意の残り
- Authors: Yuanzhe Jia, Weixuan Wu, Feiqi Cao, Soyeon Caren Han
- Abstract要約: 本稿では,ゲーム内チャットデータを用いたゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(スロットフィリング)のためのモデル/フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.9218741065333018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-game toxic language becomes the hot potato in the gaming industry and
community. There have been several online game toxicity analysis frameworks and
models proposed. However, it is still challenging to detect toxicity due to the
nature of in-game chat, which has extremely short length. In this paper, we
describe how the in-game toxic language shared task has been established using
the real-world in-game chat data. In addition, we propose and introduce the
model/framework for toxic language token tagging (slot filling) from the
in-game chat. The data and code will be released.
- Abstract(参考訳): ゲーム内有毒言語は、ゲーム業界やコミュニティにおいてホットポテトとなる。
オンラインゲーム毒性分析フレームワークやモデルが提案されている。
しかし,ゲーム内チャットの性質が極めて短いため,毒性を検出することは依然として困難である。
本稿では,実際のゲーム内チャットデータを用いて,ゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(slot fill)のためのモデル/フレームワークを提案する。
データとコードはリリースされます。
関連論文リスト
- Uncovering the Viral Nature of Toxicity in Competitive Online Video Games [0.4681661603096334]
フリー・ツー・プレイのアクションゲーム『Call of Duty: Warzone』のプロプライエタリなデータを分析した。
選手のチームメイトが有毒なスピーチを行う確率は、平均的な選手が有毒なスピーチを行う確率の26.1倍から30.3倍になる。
論文 参考訳(メタデータ) (2024-10-01T18:07:06Z) - Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks [0.0]
本研究は,ゲーム内チャットにおける有害性の検出において,事前学習したBERTおよびGPT言語モデルの性能を評価し,評価する。
この研究は、BERT(Base-uncased)、BERT(Large-uncased)、GPT-3モデルのトレーニングとテストのために、約2万のゲーム内チャットを収集することができた。
論文 参考訳(メタデータ) (2024-03-19T11:36:53Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Towards Detecting Contextual Real-Time Toxicity for In-Game Chat [5.371337604556311]
ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-20T00:29:57Z) - ToxBuster: In-game Chat Toxicity Buster with BERT [2.764897610820181]
ToxBusterは、Rainbow Six SiegeとFor Honorの194万行のゲームチャットの比較的大規模なデータセットに基づいてトレーニングされた、シンプルでスケーラブルなモデルである。
既存の最先端と比較して、ToxBusterの精度は82.95%(+7)、リコール率は83.56%(+57)である。
論文 参考訳(メタデータ) (2023-05-21T18:53:26Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Why So Toxic? Measuring and Triggering Toxic Behavior in Open-Domain
Chatbots [24.84440998820146]
本稿では,チャットボットの毒性を定量的に測定する。
一般に利用可能なチャットボットは、有害なクエリを入力した場合、有害な応答を提供する傾向がある。
そこで我々は,GPT-2を微調整して非有害なクエリを生成する攻撃ToxicBuddyの設計と実験を行った。
論文 参考訳(メタデータ) (2022-09-07T20:45:41Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。