論文の概要: Finding the Needle in a Haystack: Detecting Bug Occurrences in Gameplay
Videos
- arxiv url: http://arxiv.org/abs/2311.10926v1
- Date: Sat, 18 Nov 2023 01:14:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 13:33:21.824007
- Title: Finding the Needle in a Haystack: Detecting Bug Occurrences in Gameplay
Videos
- Title(参考訳): Haystackの針を見つける:ゲームプレイビデオにおけるバグ発生の検出
- Authors: Andrew Truelove, Shiyue Rong, Eduardo Santana de Almeida, Iftekhar
Ahmed
- Abstract要約: 本稿では、機械学習を用いて、ゲームプレイビデオの一部にバグの描写が含まれているかどうかを予測する自動化アプローチを提案する。
我々は、198本のゲームプレイビデオの4,412のセグメントを分析し、あるセグメントがバグのインスタンスを含んでいるかどうかを予測する。
本手法は, バグを含む映像のセグメント検出に有効であり, F1スコア0.88を達成し, バグ分類の最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 10.127506928281413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The presence of bugs in video games can bring significant consequences for
developers. To avoid these consequences, developers can leverage gameplay
videos to identify and fix these bugs. Video hosting websites such as YouTube
provide access to millions of game videos, including videos that depict bug
occurrences, but the large amount of content can make finding bug instances
challenging. We present an automated approach that uses machine learning to
predict whether a segment of a gameplay video contains the depiction of a bug.
We analyzed 4,412 segments of 198 gameplay videos to predict whether a segment
contains an instance of a bug. Additionally, we investigated how our approach
performs when applied across different specific genres of video games and on
videos from the same game. We also analyzed the videos in the dataset to
investigate what characteristics of the visual features might explain the
classifier's prediction. Finally, we conducted a user study to examine the
benefits of our automated approach against a manual analysis. Our findings
indicate that our approach is effective at detecting segments of a video that
contain bugs, achieving a high F1 score of 0.88, outperforming the current
state-of-the-art technique for bug classification of gameplay video segments.
- Abstract(参考訳): ビデオゲームにバグがあることは、開発者にとって大きな影響を与える可能性がある。
これらの結果を避けるために、開発者はゲームプレイビデオを利用してバグを特定し修正することができる。
youtubeなどのビデオホスティングサイトは、バグ発生を描写したビデオを含む数百万ものゲームビデオへのアクセスを提供しているが、大量のコンテンツはバグ発見を難しくする可能性がある。
本稿では,機械学習を用いてゲームプレイビデオのセグメントにバグの描写が含まれているかどうかを予測する自動アプローチを提案する。
我々は、198本のゲームプレイビデオの4,412のセグメントを分析し、あるセグメントがバグのインスタンスを含んでいるかどうかを予測する。
さらに,異なるジャンルのビデオゲームや,同じゲームからのビデオに応用した場合に,我々のアプローチがどのように機能するかを検討した。
また,データセット内の映像を分析し,視覚特徴の特徴が分類器の予測をどう説明するかを検討した。
最後に,手動分析に対する自動アプローチのメリットを検討するために,ユーザスタディを実施した。
その結果,本手法はバグを含むビデオのセグメント検出に有効であり,F1スコア0.88を達成し,現在のゲームプレイ映像セグメントのバグ分類技術よりも優れていることがわかった。
関連論文リスト
- Semantic GUI Scene Learning and Video Alignment for Detecting Duplicate Video-based Bug Reports [16.45808969240553]
ビデオベースのバグレポートは、グラフィカルユーザインタフェース(GUI)を中心としたプログラムのバグの文書化にますます利用されている。
我々は、視覚変換器のシーン学習機能に適応して、アプリUI画面に現れる微妙な視覚的およびテキスト的パターンをキャプチャする、JANUSと呼ばれる新しいアプローチを導入する。
Janus氏はまた、ビデオフレームの適応重み付けが可能なビデオアライメント技術を使用して、典型的なバグ発生パターンを考慮している。
論文 参考訳(メタデータ) (2024-07-11T15:48:36Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Using Gameplay Videos for Detecting Issues in Video Games [14.41863992598613]
ストリーマーは、プレイ中にいくつかの問題(バグ、不具合、パフォーマンス問題など)に遭遇する可能性がある。
特定された問題はユーザのゲーム体験に悪影響を及ぼし、ゲームやプロデューサーの評判に悪影響を及ぼす可能性がある。
本稿では,ゲームプレイビデオから関連情報を自動抽出するGELIDを提案する。
論文 参考訳(メタデータ) (2023-07-27T10:16:04Z) - Video Event Extraction via Tracking Visual States of Arguments [72.54932474653444]
本稿では,関連するすべての議論の視覚的状態の変化を追跡することによって,ビデオイベントを検出する新しいフレームワークを提案する。
引数の視覚状態の変化を捉えるために、オブジェクト内のピクセルの変化、オブジェクトの変位、複数の引数間の相互作用に分解する。
論文 参考訳(メタデータ) (2022-11-03T13:12:49Z) - Large Language Models are Pretty Good Zero-Shot Video Game Bug Detectors [3.39487428163997]
大規模言語モデルでは,ゲームからのイベントのテキスト記述のシーケンスにおいて,どのイベントがバギーであるかを識別できることを示す。
この結果から,ビデオゲームのバグ検出に言語モデルを用いた場合の有望な結果が得られた。
論文 参考訳(メタデータ) (2022-10-05T18:44:35Z) - CLIP meets GamePhysics: Towards bug identification in gameplay videos
using zero-shot transfer learning [4.168157981135698]
本稿では,関連するゲームプレイ映像を検索するために,英語のテキストクエリを入力として受け入れる検索手法を提案する。
われわれのアプローチは外部情報(ビデオメタデータなど)に頼らない。
我々のアプローチの例としては、ビデオゲームのバグを再現するためのゲームプレイ用ビデオ検索エンジンがある。
論文 参考訳(メタデータ) (2022-03-21T16:23:02Z) - Learning to Identify Perceptual Bugs in 3D Video Games [1.370633147306388]
そこで本研究では,学習に基づく手法を用いて,知覚的バグの範囲を同定できることを示す。
World of Bugs (WOB)は、3Dゲーム環境でABDメソッドをテストするオープンプラットフォームである。
論文 参考訳(メタデータ) (2022-02-25T18:50:11Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Playable Video Generation [47.531594626822155]
我々は,ユーザが生成した映像を,ビデオゲームのように毎回個別のアクションを選択することで制御できるようにすることを目標とする。
タスクの難しさは、意味的に一貫性のあるアクションを学習することと、ユーザ入力に条件付けされたリアルなビデオを生成することの両方にある。
本稿では,ビデオの大規模なデータセットに基づいて,自己教師型で訓練されたPVGのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T18:55:58Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。