論文の概要: Using Deep Convolutional Neural Networks to Detect Rendered Glitches in Video Games
- arxiv url: http://arxiv.org/abs/2406.08231v1
- Date: Wed, 12 Jun 2024 13:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 16:36:08.329753
- Title: Using Deep Convolutional Neural Networks to Detect Rendered Glitches in Video Games
- Title(参考訳): 深層畳み込みニューラルネットワークによるビデオゲームのレンダリンググリッチの検出
- Authors: Carlos Garcia Ling, Konrad Tollmar, Linus Gisslen,
- Abstract要約: 本研究は,86.8%の精度で高い性能を達成できるテクスチャ・グラフィカルな異常を検出することに焦点を当てている。
本研究は, 偽陽性問題に対処するための信頼度測定と, 画像のアグリゲーションを効果的に行い, 製造時の検出精度の向上を図ることを目的とする。
- 参考スコア(独自算出の注目度): 0.09831489366502298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a method using Deep Convolutional Neural Networks (DCNNs) to detect common glitches in video games. The problem setting consists of an image (800x800 RGB) as input to be classified into one of five defined classes, normal image, or one of four different kinds of glitches (stretched, low resolution, missing and placeholder textures). Using a supervised approach, we train a ShuffleNetV2 using generated data. This work focuses on detecting texture graphical anomalies achieving arguably good performance with an accuracy of 86.8\%, detecting 88\% of the glitches with a false positive rate of 8.7\%, and with the models being able to generalize and detect glitches even in unseen objects. We apply a confidence measure as well to tackle the issue with false positives as well as an effective way of aggregating images to achieve better detection in production. The main use of this work is the partial automatization of graphical testing in the final stages of video game development.
- Abstract(参考訳): 本稿では,Deep Convolutional Neural Networks (DCNN) を用いて,ビデオゲームにおける共通グリップを検出する手法を提案する。
問題設定は、入力としてイメージ(800×800 RGB)を5つの定義されたクラスのうちの1つ、通常画像、または4種類のグリッチ(ストレッチ、低解像度、欠落、プレースホルダーのテクスチャ)の1つに分類する。
教師付きアプローチを用いて、生成されたデータを使ってShuffleNetV2をトレーニングする。
本研究は,86.8\%の精度でテクスチャの異常を検出すること,8.7\%の偽陽性率でグリッチの88\%を検知すること,および,未知の物体においてもグリッチの一般化と検出が可能なモデルに焦点を当てた。
本研究は, 偽陽性問題に対処するための信頼度測定と, 画像のアグリゲーションを効果的に行い, 製造時の検出精度の向上を図ることを目的とする。
この研究の主な用途は、ビデオゲーム開発の最終段階におけるグラフィカルテストの部分的自動化である。
関連論文リスト
- Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Patch-wise Features for Blur Image Classification [3.762360672951513]
本手法により, ぼかしとシャープな画像劣化の区別が可能となる。
オープンデータセットで行った実験では、提案した低計算手法が検証セットの平均精度を90.1%向上することが示された。
提案手法はCPU上のVGG16ベースモデルよりも10倍高速で、入力画像サイズに線形にスケールし、低計算エッジデバイスに実装するのに適している。
論文 参考訳(メタデータ) (2023-04-06T15:39:11Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - TruFor: Leveraging all-round clues for trustworthy image forgery
detection and localization [17.270110456445806]
TruForは、さまざまなイメージ操作方法に適用可能な、法医学的なフレームワークである。
変換器をベースとした融合アーキテクチャにより,高レベルのトレースと低レベルのトレースの両方を抽出する。
当社の手法は,安価なフェイクとディープフェイク操作の両方を確実に検出し,ローカライズすることができる。
論文 参考訳(メタデータ) (2022-12-21T11:49:43Z) - Active Learning of Neural Collision Handler for Complex 3D Mesh
Deformations [68.0524382279567]
3次元変形メッシュにおける衝突の検出と処理を行う頑健な学習アルゴリズムを提案する。
提案手法は教師あり学習法より優れ, 精度は93.8-98.1%である。
論文 参考訳(メタデータ) (2021-10-08T04:08:31Z) - Automating Artifact Detection in Video Games [3.151556208794165]
本研究では,ビデオゲームにおけるグラフィック破損の自動検出のための機械学習手法を提案する。
このモデルでは、最もよく見られるスクリーンアーティファクトの10を、妥当な精度で識別することができた。
テストはホールトアウトテストセットで行われ、これまで見たゲームでは84%、これまで見たことのないゲームでは69%の精度で行われました。
論文 参考訳(メタデータ) (2020-11-30T18:34:40Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - FDFtNet: Facing Off Fake Images using Fake Detection Fine-tuning Network [19.246576904646172]
本稿では,FaketNetと呼ばれる,軽量な微調整ニューラルネットワークアーキテクチャを提案する。
提案手法は,偽画像の検出を効果的に行うための微調整のために,数枚の画像のみを用いて,人気のある事前学習モデルを再利用することを目的としている。
我々の tNet は GANs ベースのデータセットから生成された偽画像の総合的精度 9029% を達成する。
論文 参考訳(メタデータ) (2020-01-05T16:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。