論文の概要: Automatic Testing and Validation of Level of Detail Reductions Through
Supervised Learning
- arxiv url: http://arxiv.org/abs/2208.12674v1
- Date: Thu, 25 Aug 2022 08:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:48:42.557928
- Title: Automatic Testing and Validation of Level of Detail Reductions Through
Supervised Learning
- Title(参考訳): 教師付き学習による詳細化レベルの自動テストと検証
- Authors: Matilda Tamm, Olivia Shamon, Hector Anadon Leon, Konrad Tollmar, Linus
Gissl\'en
- Abstract要約: ビデオゲームのサイズと規模は急速に拡大しており、リッチで興味深い環境を作るためには、大量のコンテンツが必要である。
各アセットのポリゴンメッシュは数百万のポリゴンを含むことができるため、フレームごとに描画されるポリゴンの数は数十億を超える可能性がある。
この制限を押して性能を最適化するために、可能であれば資産のポリゴン数を削減できる。
本稿では,深層畳み込みネットワークを用いて,このプロセスを自動化する手法を提案する。
- 参考スコア(独自算出の注目度): 0.2519906683279152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern video games are rapidly growing in size and scale, and to create rich
and interesting environments, a large amount of content is needed. As a
consequence, often several thousands of detailed 3D assets are used to create a
single scene. As each asset's polygon mesh can contain millions of polygons,
the number of polygons that need to be drawn every frame may exceed several
billions. Therefore, the computational resources often limit how many detailed
objects that can be displayed in a scene. To push this limit and to optimize
performance one can reduce the polygon count of the assets when possible.
Basically, the idea is that an object at farther distance from the capturing
camera, consequently with relatively smaller screen size, its polygon count may
be reduced without affecting the perceived quality. Level of Detail (LOD)
refers to the complexity level of a 3D model representation. The process of
removing complexity is often called LOD reduction and can be done automatically
with an algorithm or by hand by artists. However, this process may lead to
deterioration of the visual quality if the different LODs differ significantly,
or if LOD reduction transition is not seamless. Today the validation of these
results is mainly done manually requiring an expert to visually inspect the
results. However, this process is slow, mundane, and therefore prone to error.
Herein we propose a method to automate this process based on the use of deep
convolutional networks. We report promising results and envision that this
method can be used to automate the process of LOD reduction testing and
validation.
- Abstract(参考訳): 現代のビデオゲームのサイズと規模は急速に拡大しており、リッチで興味深い環境を作るためには、大量のコンテンツが必要である。
その結果、多くの場合、数千の詳細な3dアセットが1つのシーンを作成するために使用される。
各アセットのポリゴンメッシュは数百万のポリゴンを含むことができるため、フレームごとに描画されるポリゴンの数は数十億を超える可能性がある。
したがって、計算資源は、シーンで表示できる詳細オブジェクトの数を制限することが多い。
この制限を押して性能を最適化するために、可能であれば資産のポリゴン数を削減できる。
基本的には、撮影カメラから遠く離れた物体は、画面サイズが比較的小さいため、知覚された品質に影響を与えずにポリゴン数を減らすことができる。
レベル・オブ・ディテール(lod)は、3dモデル表現の複雑さレベルを指す。
複雑さを取り除くプロセスは、しばしばlodリダクションと呼ばれ、アルゴリズムやアーティストの手によって自動的に行われる。
しかし、このプロセスは、異なるLODが異なる場合や、LOD還元遷移がシームレスでない場合、視覚品質の低下につながる可能性がある。
現在、これらの結果の検証は主に、専門家が視覚的に結果を調べるために手動で行われる。
しかし、このプロセスは遅くてムダで、エラーを起こしやすい。
本稿では,深層畳み込みネットワークを用いて,このプロセスを自動化する手法を提案する。
本手法がLOD削減試験および検証プロセスの自動化に有効である可能性が示唆された。
関連論文リスト
- EmbodiedSAM: Online Segment Any 3D Thing in Real Time [61.2321497708998]
身体的なタスクは、エージェントが探索と同時に3Dシーンを完全に理解する必要がある。
オンライン、リアルタイム、微粒化、高度に一般化された3D知覚モデルは、必死に必要である。
論文 参考訳(メタデータ) (2024-08-21T17:57:06Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - Lester: rotoscope animation through video object segmentation and
tracking [0.0]
レスターはビデオからレトロスタイルの2Dアニメーションを自動的に合成する新しい方法である。
ビデオフレームはSAM(Segment Anything Model)で処理され、結果のマスクは後のフレームを通してDeAOTで追跡される。
その結果,提案手法は時間的整合性に優れており,ポーズや外観の異なる映像を正しく処理できることがわかった。
論文 参考訳(メタデータ) (2024-02-15T11:15:54Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - ONeRF: Unsupervised 3D Object Segmentation from Multiple Views [59.445957699136564]
OneRFは、追加のマニュアルアノテーションなしで、マルチビューのRGBイメージから3Dのオブジェクトインスタンスを自動的に分割し、再構成する手法である。
セグメント化された3Dオブジェクトは、様々な3Dシーンの編集と新しいビューレンダリングを可能にする別個のNeRF(Neural Radiance Fields)を使用して表現される。
論文 参考訳(メタデータ) (2022-11-22T06:19:37Z) - VoxGRAF: Fast 3D-Aware Image Synthesis with Sparse Voxel Grids [42.74658047803192]
最先端の3D認識生成モデルは座標に基づくパラメータ化3Dラディアンス場に依存している。
既存のアプローチでは、しばしば解像度の低い特徴写像をレンダリングし、それをアップサンプリングネットワークで処理して最終的な画像を得る。
既存の手法とは対照的に,本手法では完全な3Dシーンを生成するために,単一の前方通過しか必要としない。
論文 参考訳(メタデータ) (2022-06-15T17:44:22Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Neural Articulated Radiance Field [90.91714894044253]
本稿では,画像から学習した明瞭な物体に対する新しい変形可能な3次元表現であるニューラルArticulated Radiance Field(NARF)を提案する。
実験の結果,提案手法は効率的であり,新しいポーズにうまく一般化できることがわかった。
論文 参考訳(メタデータ) (2021-04-07T13:23:14Z) - Differentiable Rendering: A Survey [22.35293459579154]
微分レンダリングは、画像を通して3Dオブジェクトの勾配を計算し伝播させる新しい分野である。
本稿では、既存の文献をレビューし、差別化可能なレンダリングの現状と応用、オープンな研究課題について論じる。
論文 参考訳(メタデータ) (2020-06-22T08:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。