論文の概要: Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks
- arxiv url: http://arxiv.org/abs/2403.15458v1
- Date: Tue, 19 Mar 2024 11:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 22:41:56.560607
- Title: Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks
- Title(参考訳): ゲーム内トレーシュ音声検出のための微調整事前学習言語モデル
- Authors: Daniel Fesalbon, Arvin De La Cruz, Marvin Mallari, Nelson Rodelas,
- Abstract要約: 本研究は,ゲーム内チャットにおける有害性の検出において,事前学習したBERTおよびGPT言語モデルの性能を評価し,評価する。
この研究は、BERT(Base-uncased)、BERT(Large-uncased)、GPT-3モデルのトレーニングとテストのために、約2万のゲーム内チャットを収集することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Common problems in playing online mobile and computer games were related to toxic behavior and abusive communication among players. Based on different reports and studies, the study also discusses the impact of online hate speech and toxicity on players' in-game performance and overall well-being. This study investigates the capability of pre-trained language models to classify or detect trash talk or toxic in-game messages The study employs and evaluates the performance of pre-trained BERT and GPT language models in detecting toxicity within in-game chats. Using publicly available APIs, in-game chat data from DOTA 2 game matches were collected, processed, reviewed, and labeled as non-toxic, mild (toxicity), and toxic. The study was able to collect around two thousand in-game chats to train and test BERT (Base-uncased), BERT (Large-uncased), and GPT-3 models. Based on the three models' state-of-the-art performance, this study concludes pre-trained language models' promising potential for addressing online hate speech and in-game insulting trash talk.
- Abstract(参考訳): オンラインモバイルゲームやコンピュータゲームの一般的な問題は、プレイヤー間の有害な行動と虐待的なコミュニケーションに関連していた。
異なるレポートや研究に基づいて、オンラインヘイトスピーチと毒性がプレイヤーのゲーム内パフォーマンスおよび全体的な幸福に与える影響についても論じている。
本研究は,ゲーム内チャットにおける有害性を検出するために,事前学習されたBERT言語モデルとGPT言語モデルの性能を評価し評価する。
公開APIを用いて、DOTA 2のゲームマッチのゲーム内チャットデータを収集し、処理し、レビューし、非毒性、軽度(毒性)、有毒とラベル付けした。
この研究は、BERT(Base-uncased)、BERT(Large-uncased)、GPT-3モデルのトレーニングとテストのために、約2万のゲーム内チャットを収集することができた。
本研究は,3つのモデルの最先端性能に基づいて,オンラインヘイトスピーチとゲーム内侮辱的ゴミ話に対処する事前学習された言語モデルの有望な可能性について結論づける。
関連論文リスト
- Toxic Subword Pruning for Dialogue Response Generation on Large Language Models [51.713448010799986]
toxPrune (textbfToxic Subword textbfPruning) を提案する。
ToxPruneは、明らかに対話応答生成のタスクにおいて、有害言語モデルNSFW-3Bを同時に改善する。
論文 参考訳(メタデータ) (2024-10-05T13:30:33Z) - Challenges for Real-Time Toxicity Detection in Online Games [1.2289361708127877]
有害な行為や悪意のあるプレイヤーは経験を台無しにし、プレイヤーベースを減らし、ゲームやスタジオの成功を損なう可能性がある。
本稿では,テキスト,音声および画像処理問題,行動毒性の観点から,有害なコンテンツ検出に直面する課題について概説する。
論文 参考訳(メタデータ) (2024-07-05T09:38:58Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Towards Detecting Contextual Real-Time Toxicity for In-Game Chat [5.371337604556311]
ToxBusterはスケーラブルなモデルで、チャット履歴とメタデータを含むチャットの行に対して、リアルタイムに有害なコンテンツを確実に検出する。
ToxBusterは、Rainbow Six Siege、For Honor、DOTA 2などの人気マルチプレイヤーゲームにおいて、従来の毒性モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-20T00:29:57Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Can Large Language Models Play Text Games Well? Current State-of-the-Art
and Open Questions [22.669941641551823]
ChatGPT や GPT-4 のような大規模言語モデル (LLM) は、最近、人間のユーザと通信する顕著な能力を示した。
我々は,ゲームの世界と対話することで,プレイヤが環境を理解し,状況に対処しなければならないような,テキストゲームをプレイする能力について調査する。
実験の結果,ChatGPTは既存のシステムと比較して競争力があるものの,知能のレベルは低いことがわかった。
論文 参考訳(メタデータ) (2023-04-06T05:01:28Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - In-game Toxic Language Detection: Shared Task and Attention Residuals [1.9218741065333018]
本稿では,ゲーム内チャットデータを用いたゲーム内有害言語共有タスクの確立について述べる。
さらに,ゲーム内チャットから有害な言語トークンタグ付け(スロットフィリング)のためのモデル/フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-11T04:33:45Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Recognizing Affiliation: Using Behavioural Traces to Predict the Quality
of Social Interactions in Online Games [26.131859388185646]
我々は、オンラインゲーム環境でのソーシャルな交流を通じて、ディヤドの見知らぬ人との親和性を予測するために行動トレースを使用する。
我々は23のダイアドから音声、ビデオ、ゲーム内、および自己報告データを収集し、75の特徴を抽出し、ランダムフォレストとサポートベクターマシンモデルを訓練し、その性能予測バイナリ(ハイ/ロー)とパートナーへの継続的なアフィリエイトを評価した。
本研究は,マルチプレイヤーゲームやゲームコミュニティの設計について報告し,オンラインゲームにおける有害行為を軽減・軽減するためのシステム開発を指導するものである。
論文 参考訳(メタデータ) (2020-03-06T20:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。