論文の概要: Automating Artifact Detection in Video Games
- arxiv url: http://arxiv.org/abs/2011.15103v1
- Date: Mon, 30 Nov 2020 18:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:42:20.309814
- Title: Automating Artifact Detection in Video Games
- Title(参考訳): ビデオゲームにおけるアーティファクト検出の自動化
- Authors: Parmida Davarmanesh, Kuanhao Jiang, Tingting Ou, Artem Vysogorets,
Stanislav Ivashkevich, Max Kiehn, Shantanu H. Joshi, Nicholas Malaya
- Abstract要約: 本研究では,ビデオゲームにおけるグラフィック破損の自動検出のための機械学習手法を提案する。
このモデルでは、最もよく見られるスクリーンアーティファクトの10を、妥当な精度で識別することができた。
テストはホールトアウトテストセットで行われ、これまで見たゲームでは84%、これまで見たことのないゲームでは69%の精度で行われました。
- 参考スコア(独自算出の注目度): 3.151556208794165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of advances in gaming hardware and software, gameplay is often
tainted with graphics errors, glitches, and screen artifacts. This proof of
concept study presents a machine learning approach for automated detection of
graphics corruptions in video games. Based on a sample of representative screen
corruption examples, the model was able to identify 10 of the most commonly
occurring screen artifacts with reasonable accuracy. Feature representation of
the data included discrete Fourier transforms, histograms of oriented
gradients, and graph Laplacians. Various combinations of these features were
used to train machine learning models that identify individual classes of
graphics corruptions and that later were assembled into a single mixed experts
"ensemble" classifier. The ensemble classifier was tested on heldout test sets,
and produced an accuracy of 84% on the games it had seen before, and 69% on
games it had never seen before.
- Abstract(参考訳): ゲームハードウェアやソフトウェアの発展にもかかわらず、ゲームプレイにはグラフィックエラー、グリッチ、スクリーンアーティファクトが伴っていることが多い。
この概念実証研究は、ビデオゲームにおけるグラフィック破損の自動検出のための機械学習アプローチを示す。
代表的なスクリーン破損例のサンプルに基づいて、このモデルは、最も一般的に発生するスクリーンアーティファクトのうち10を妥当な精度で識別することができた。
データの特徴表現には、離散フーリエ変換、向き付け勾配のヒストグラム、グラフラプラシアンが含まれる。
これらの特徴の様々な組み合わせは、グラフィクスの個々のクラスを識別する機械学習モデルを訓練するために使用され、後に単一の混合専門家の"アンサンブル"分類器に組み立てられた。
アンサンブル分類器はホールドアウトテストセットでテストされ、これまで見たゲームでは84%、これまで見たことのないゲームでは69%の精度で出力された。
関連論文リスト
- Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Generated Graph Detection [27.591612297045817]
グラフ生成モデルは、データ分散近似とデータ拡張にますます効果的になる。
4つの分類シナリオにおいて、洗練されたモデルの集合とその性能を調査する最初のフレームワークを提案する。
私たちのソリューションは、生成されたグラフの誤用を抑制するのに十分な期間維持できます。
論文 参考訳(メタデータ) (2023-06-13T13:18:04Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - Intrusion Detection: Machine Learning Baseline Calculations for Image
Classification [0.0]
サイバーセキュリティは、機械学習の適用によって強化できる。
最も期待できる候補は、ライトマシン、ランダムフォレストブースト、エクストラツリーズである。
論文 参考訳(メタデータ) (2021-11-03T17:49:38Z) - Contrastive Learning of Generalized Game Representations [2.323282558557423]
ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
論文 参考訳(メタデータ) (2021-06-18T11:17:54Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Automatic Generation of Contrast Sets from Scene Graphs: Probing the
Compositional Consistency of GQA [16.95631509102115]
教師付きモデルは、しばしばデータアーティファクトを利用して良好なテストスコアを達成し、そのパフォーマンスはトレーニング分布外のサンプルで著しく低下します。
本稿では,リッチなセマンティック入力表現を利用して,視覚的質問応答タスクのコントラストセットを自動的に生成する新しい手法を提案する。
GQAの組成とラベルのバランスの取れた分布にもかかわらず、2つのハイパフォーマンスモデルが元のテストセットと比較して13-17%の精度で低下することがわかった。
論文 参考訳(メタデータ) (2021-03-17T12:19:25Z) - Learning Visual Commonsense for Robust Scene Graph Generation [49.208518291993705]
シーングラフ生成モデルは、野生における知覚の難しさのために間違いを犯しがちである。
本稿では,データから可視性や直感的な物理などの視覚的常識を自動取得する手法を提案する。
本モデルでは,どの手法よりもコモンセンスを学習し,最先端のシーングラフ生成手法の精度を向上させる。
論文 参考訳(メタデータ) (2020-06-17T03:07:53Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。