論文の概要: Using Gameplay Videos for Detecting Issues in Video Games
- arxiv url: http://arxiv.org/abs/2307.14749v1
- Date: Thu, 27 Jul 2023 10:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 16:11:02.976931
- Title: Using Gameplay Videos for Detecting Issues in Video Games
- Title(参考訳): ビデオゲームの問題点検出にゲームプレイビデオを使う
- Authors: Emanuela Guglielmi, Simone Scalabrino, Gabriele Bavota, Rocco Oliveto
- Abstract要約: ストリーマーは、プレイ中にいくつかの問題(バグ、不具合、パフォーマンス問題など)に遭遇する可能性がある。
特定された問題はユーザのゲーム体験に悪影響を及ぼし、ゲームやプロデューサーの評判に悪影響を及ぼす可能性がある。
本稿では,ゲームプレイビデオから関連情報を自動抽出するGELIDを提案する。
- 参考スコア(独自算出の注目度): 14.41863992598613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context. The game industry is increasingly growing in recent years. Every
day, millions of people play video games, not only as a hobby, but also for
professional competitions (e.g., e-sports or speed-running) or for making
business by entertaining others (e.g., streamers). The latter daily produce a
large amount of gameplay videos in which they also comment live what they
experience. But no software and, thus, no video game is perfect: Streamers may
encounter several problems (such as bugs, glitches, or performance issues)
while they play. Also, it is unlikely that they explicitly report such issues
to developers. The identified problems may negatively impact the user's gaming
experience and, in turn, can harm the reputation of the game and of the
producer. Objective. In this paper, we propose and empirically evaluate GELID,
an approach for automatically extracting relevant information from gameplay
videos by (i) identifying video segments in which streamers experienced
anomalies; (ii) categorizing them based on their type (e.g., logic or
presentation); clustering them based on (iii) the context in which appear
(e.g., level or game area) and (iv) on the specific issue type (e.g., game
crashes). Method. We manually defined a training set for step 2 of GELID
(categorization) and a test set for validating in isolation the four components
of GELID. In total, we manually segmented, labeled, and clustered 170 videos
related to 3 video games, defining a dataset containing 604 segments. Results.
While in steps 1 (segmentation) and 4 (specific issue clustering) GELID
achieves satisfactory results, it shows limitations on step 3 (game context
clustering) and, above all, step 2 (categorization).
- Abstract(参考訳): コンテキスト。
近年、ゲーム業界はますます成長している。
毎日、何百万人もの人が趣味だけでなく、プロの競技会(eスポーツやスピードランニングなど)や、他人(ストリーマーなど)を楽しませてビジネスを行うためにビデオゲームをしている。
後者は毎日大量のゲームプレイビデオを制作し、彼らが経験したことをライブでコメントする。
ストリーミングプレイヤーは、プレイ中にいくつかの問題(バグ、不具合、パフォーマンス問題など)に遭遇する可能性がある。
また、開発者がこのような問題を明示的に報告する可能性は低い。
特定された問題はユーザのゲーム体験に悪影響を及ぼし、ゲームやプロデューサーの評判に悪影響を及ぼす可能性がある。
目的。
本稿では,ゲームプレイ映像から関連する情報を自動抽出する手法であるgelidを提案し,実験的に評価する。
(i)ストリーマーが異常を経験した映像セグメントの特定
(ii)その種類(例えば、論理学又はプレゼンテーション)に基づいて分類し、それに基づいてクラスタリングする
(iii)(レベルやゲーム領域など)現れる文脈
(iv)特定のイシュータイプ(例えば、ゲームクラッシュ)について。
方法。
GELIDのステップ2(分類)のトレーニングセットと,GELIDの4つのコンポーネントを分離して検証するテストセットを手作業で定義した。
合計して、3つのビデオゲームに関連する170のビデオを手動でセグメンテーション、ラベル付け、クラスタリングし、604のセグメントを含むデータセットを定義しました。
結果だ
ステップ1(セグメンテーション)と4(特定の課題クラスタリング)では、gelidは満足のいく結果を得るが、ステップ3(ゲームコンテキストクラスタリング)とステップ2(カテゴリ化)には制限がある。
関連論文リスト
- VideoGameBunny: Towards vision assistants for video games [4.652236080354487]
本稿では,BunnyをベースとしたLLaVAスタイルモデルであるVideoGameBunnyの開発について述べる。
中間チェックポイント、トレーニングログ、および413タイトルから185,259のビデオゲーム画像からなる広範なデータセットをリリースする。
実験の結果,我々の高品質なゲーム関連データにより,比較的小さなモデルが,最先端モデルであるLLaVa-1.6-34bよりも優れている可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-21T23:31:57Z) - Beyond Raw Videos: Understanding Edited Videos with Large Multimodal Model [62.38322742493649]
本稿では,人気のショートビデオプラットフォームであるtextiti.e.,TikTokで動画を編集するためのベンチマークを構築し,エフェクト,面白い,ミーム,ゲームをカバーする。
オープンソースビデオのLMMのほとんどはベンチマークでは不十分であり、ソーシャルメディア上の編集されたショートビデオと通常の生ビデオの間に大きなドメインギャップがあることを示唆している。
LMMの一般化能力を向上させるため,Panda-70M/WebVid生ビデオとTikTok/CapCut編集ビデオの両方に基づいて,提案したベンチマークのトレーニングセットを収集した。
論文 参考訳(メタデータ) (2024-06-15T03:28:52Z) - Finding the Needle in a Haystack: Detecting Bug Occurrences in Gameplay
Videos [10.127506928281413]
本稿では、機械学習を用いて、ゲームプレイビデオの一部にバグの描写が含まれているかどうかを予測する自動化アプローチを提案する。
我々は、198本のゲームプレイビデオの4,412のセグメントを分析し、あるセグメントがバグのインスタンスを含んでいるかどうかを予測する。
本手法は, バグを含む映像のセグメント検出に有効であり, F1スコア0.88を達成し, バグ分類の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2023-11-18T01:14:18Z) - Dense Video Captioning: A Survey of Techniques, Datasets and Evaluation
Protocols [53.706461356853445]
アントリムされたビデオには、関連のあるイベント、依存関係、コンテキスト、重複するイベント、オブジェクトとオブジェクトのインタラクション、ドメインの特異性、その他の説明に値するセマンティクスがある。
ビデオキャプション(DVC)は、特定のビデオ内の異なるイベントを検出し、記述することを目的としている。
論文 参考訳(メタデータ) (2023-11-05T01:45:31Z) - GOAL: A Challenging Knowledge-grounded Video Captioning Benchmark for
Real-time Soccer Commentary Generation [75.60413443783953]
我々は,KGVC(Knowledge-grounded Video Captioning)として新たなタスク設定を提案するための,8.9k以上のサッカービデオクリップ,22kの文,42kの知識トリプルのベンチマークであるGOALを提案する。
私たちのデータとコードはhttps://github.com/THU-KEG/goal.orgで公開されています。
論文 参考訳(メタデータ) (2023-03-26T08:43:36Z) - Large Language Models are Pretty Good Zero-Shot Video Game Bug Detectors [3.39487428163997]
大規模言語モデルでは,ゲームからのイベントのテキスト記述のシーケンスにおいて,どのイベントがバギーであるかを識別できることを示す。
この結果から,ビデオゲームのバグ検出に言語モデルを用いた場合の有望な結果が得られた。
論文 参考訳(メタデータ) (2022-10-05T18:44:35Z) - Subjective and Objective Analysis of Streamed Gaming Videos [60.32100758447269]
ゲームビデオにおける主観的および客観的ビデオ品質評価(VQA)モデルについて検討する。
LIVE-YouTube Gaming Video Quality (LIVE-YT-Gaming) と呼ばれる新しいゲームビデオリソースを作成しました。
このデータについて主観的人間調査を行い,61名の被験者が記録した品質評価18,600名を得た。
論文 参考訳(メタデータ) (2022-03-24T03:02:57Z) - CLIP meets GamePhysics: Towards bug identification in gameplay videos
using zero-shot transfer learning [4.168157981135698]
本稿では,関連するゲームプレイ映像を検索するために,英語のテキストクエリを入力として受け入れる検索手法を提案する。
われわれのアプローチは外部情報(ビデオメタデータなど)に頼らない。
我々のアプローチの例としては、ビデオゲームのバグを再現するためのゲームプレイ用ビデオ検索エンジンがある。
論文 参考訳(メタデータ) (2022-03-21T16:23:02Z) - CommonsenseQA 2.0: Exposing the Limits of AI through Gamification [126.85096257968414]
現代自然言語理解モデルの能力をテストするベンチマークを構築した。
本研究では,データ構築の枠組みとしてゲーミフィケーションを提案する。
論文 参考訳(メタデータ) (2022-01-14T06:49:15Z) - Playable Video Generation [47.531594626822155]
我々は,ユーザが生成した映像を,ビデオゲームのように毎回個別のアクションを選択することで制御できるようにすることを目標とする。
タスクの難しさは、意味的に一貫性のあるアクションを学習することと、ユーザ入力に条件付けされたリアルなビデオを生成することの両方にある。
本稿では,ビデオの大規模なデータセットに基づいて,自己教師型で訓練されたPVGのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T18:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。