論文の概要: Automating Artifact Detection in Video Games
- arxiv url: http://arxiv.org/abs/2011.15103v1
- Date: Mon, 30 Nov 2020 18:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:42:20.309814
- Title: Automating Artifact Detection in Video Games
- Title(参考訳): ビデオゲームにおけるアーティファクト検出の自動化
- Authors: Parmida Davarmanesh, Kuanhao Jiang, Tingting Ou, Artem Vysogorets,
Stanislav Ivashkevich, Max Kiehn, Shantanu H. Joshi, Nicholas Malaya
- Abstract要約: 本研究では,ビデオゲームにおけるグラフィック破損の自動検出のための機械学習手法を提案する。
このモデルでは、最もよく見られるスクリーンアーティファクトの10を、妥当な精度で識別することができた。
テストはホールトアウトテストセットで行われ、これまで見たゲームでは84%、これまで見たことのないゲームでは69%の精度で行われました。
- 参考スコア(独自算出の注目度): 3.151556208794165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of advances in gaming hardware and software, gameplay is often
tainted with graphics errors, glitches, and screen artifacts. This proof of
concept study presents a machine learning approach for automated detection of
graphics corruptions in video games. Based on a sample of representative screen
corruption examples, the model was able to identify 10 of the most commonly
occurring screen artifacts with reasonable accuracy. Feature representation of
the data included discrete Fourier transforms, histograms of oriented
gradients, and graph Laplacians. Various combinations of these features were
used to train machine learning models that identify individual classes of
graphics corruptions and that later were assembled into a single mixed experts
"ensemble" classifier. The ensemble classifier was tested on heldout test sets,
and produced an accuracy of 84% on the games it had seen before, and 69% on
games it had never seen before.
- Abstract(参考訳): ゲームハードウェアやソフトウェアの発展にもかかわらず、ゲームプレイにはグラフィックエラー、グリッチ、スクリーンアーティファクトが伴っていることが多い。
この概念実証研究は、ビデオゲームにおけるグラフィック破損の自動検出のための機械学習アプローチを示す。
代表的なスクリーン破損例のサンプルに基づいて、このモデルは、最も一般的に発生するスクリーンアーティファクトのうち10を妥当な精度で識別することができた。
データの特徴表現には、離散フーリエ変換、向き付け勾配のヒストグラム、グラフラプラシアンが含まれる。
これらの特徴の様々な組み合わせは、グラフィクスの個々のクラスを識別する機械学習モデルを訓練するために使用され、後に単一の混合専門家の"アンサンブル"分類器に組み立てられた。
アンサンブル分類器はホールドアウトテストセットでテストされ、これまで見たゲームでは84%、これまで見たことのないゲームでは69%の精度で出力された。
関連論文リスト
- An Empirical Study of Autoregressive Pre-training from Videos [67.15356613065542]
ビデオをビジュアルトークンとして扱い、トランスフォーマーモデルをトレーニングして、将来的なトークンを自動回帰的に予測します。
われわれのモデルは、1兆以上の視覚トークンからなる多様なビデオと画像のデータセットで事前訓練されている。
以上の結果から, 自己回帰的事前学習は, 最小限の帰納バイアスにもかかわらず, 競争性能に寄与することが示唆された。
論文 参考訳(メタデータ) (2025-01-09T18:59:58Z) - Using Deep Convolutional Neural Networks to Detect Rendered Glitches in Video Games [0.09831489366502298]
本研究は,86.8%の精度で高い性能を達成できるテクスチャ・グラフィカルな異常を検出することに焦点を当てている。
本研究は, 偽陽性問題に対処するための信頼度測定と, 画像のアグリゲーションを効果的に行い, 製造時の検出精度の向上を図ることを目的とする。
論文 参考訳(メタデータ) (2024-06-12T13:59:45Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - Generated Graph Detection [27.591612297045817]
グラフ生成モデルは、データ分散近似とデータ拡張にますます効果的になる。
4つの分類シナリオにおいて、洗練されたモデルの集合とその性能を調査する最初のフレームワークを提案する。
私たちのソリューションは、生成されたグラフの誤用を抑制するのに十分な期間維持できます。
論文 参考訳(メタデータ) (2023-06-13T13:18:04Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - Intrusion Detection: Machine Learning Baseline Calculations for Image
Classification [0.0]
サイバーセキュリティは、機械学習の適用によって強化できる。
最も期待できる候補は、ライトマシン、ランダムフォレストブースト、エクストラツリーズである。
論文 参考訳(メタデータ) (2021-11-03T17:49:38Z) - Contrastive Learning of Generalized Game Representations [2.323282558557423]
ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
論文 参考訳(メタデータ) (2021-06-18T11:17:54Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Learning Visual Commonsense for Robust Scene Graph Generation [49.208518291993705]
シーングラフ生成モデルは、野生における知覚の難しさのために間違いを犯しがちである。
本稿では,データから可視性や直感的な物理などの視覚的常識を自動取得する手法を提案する。
本モデルでは,どの手法よりもコモンセンスを学習し,最先端のシーングラフ生成手法の精度を向上させる。
論文 参考訳(メタデータ) (2020-06-17T03:07:53Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。