論文の概要: HyperColor: A HyperNetwork Approach for Synthesizing Auto-colored 3D
Models for Game Scenes Population
- arxiv url: http://arxiv.org/abs/2108.01411v1
- Date: Tue, 3 Aug 2021 11:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 13:54:11.853236
- Title: HyperColor: A HyperNetwork Approach for Synthesizing Auto-colored 3D
Models for Game Scenes Population
- Title(参考訳): hypercolor:ゲームシーン人口のための自動カラー3dモデル合成のためのハイパーネットワークアプローチ
- Authors: Ivan Kostiuk, Przemys{\l}aw Stachura, S{\l}awomir K. Tadeja, Tomasz
Trzci\'nski, Przemys{\l}aw Spurek
- Abstract要約: 自動色付き3Dモデルを合成するための2段階の訓練手法を提案する。
第1段階では、3Dオブジェクトを表す3D点雲を得るが、第2段階では、そのような雲内の点に色を割り当てる。
- 参考スコア(独自算出の注目度): 16.659383072789954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing a 3D game scene is a tedious task that often requires a substantial
amount of work. Typically, this task involves synthesis, coloring, and
placement of 3D models within the game scene. To lessen this workload, we can
apply machine learning to automate some aspects of the game scene development.
Earlier research has already tackled automated generation of the game scene
background with machine learning. However, model auto-coloring remains an
underexplored problem. The automatic coloring of a 3D model is a challenging
task, especially when dealing with the digital representation of a colorful,
multipart object. In such a case, we have to ``understand'' the object's
composition and coloring scheme of each part. Existing single-stage methods
have their own caveats such as the need for segmentation of the object or
generating individual parts that have to be assembled together to yield the
final model. We address these limitations by proposing a two-stage training
approach to synthesize auto-colored 3D models. In the first stage, we obtain a
3D point cloud representing a 3D object, whilst in the second stage, we assign
colors to points within such cloud. Next, by leveraging the so-called
triangulation trick, we generate a 3D mesh in which the surfaces are colored
based on interpolation of colored points representing vertices of a given mesh
triangle. This approach allows us to generate a smooth coloring scheme.
Experimental evaluation shows that our two-stage approach gives better results
in terms of shape reconstruction and coloring when compared to traditional
single-stage techniques.
- Abstract(参考訳): 3Dゲームシーンをデザインするのは面倒な作業で、かなりの作業が必要になります。
通常、このタスクはゲームシーン内の3Dモデルの合成、着色、配置を含む。
この作業量を減らすために、ゲームシーン開発の一部の側面を自動化するために機械学習を適用することができる。
初期の研究では、機械学習によるゲームシーンの背景の自動生成にすでに取り組んでいた。
しかし、モデル自動着色は未熟な問題である。
3dモデルの自動着色は、特にカラフルなマルチパートオブジェクトのデジタル表現を扱う場合、難しい課題である。
そのような場合、各部分のオブジェクトの構成と着色スキームを ‘understand' しなければならない。
既存のシングルステージメソッドには、オブジェクトのセグメンテーションの必要性や、最終的なモデルを生成するために組み立てなければならない個々のパーツの生成など、独自の注意点がある。
自動カラー3dモデルを合成するための2段階のトレーニングアプローチを提案することで,これらの制限に対処する。
第1段階では、3Dオブジェクトを表す3D点雲を得るが、第2段階では、そのような雲内の点に色を割り当てる。
次に、いわゆる三角測量トリックを利用して、与えられたメッシュ三角形の頂点を表す彩色点の補間に基づいて、表面を彩色した3次元メッシュを生成する。
このアプローチにより、スムーズなカラー化スキームが生成できます。
実験により, 従来の単段階技術と比較して, 形状復元と色付けの両面で良好な結果が得られた。
関連論文リスト
- SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - NeRFiller: Completing Scenes via Generative 3D Inpainting [113.18181179986172]
生成3Dインパインティングによる3Dキャプチャの欠落部分を解消する手法であるNeRFillerを提案する。
関連する作品とは対照的に、前景のオブジェクトを削除するのではなく、シーンの完成に重点を置いている。
論文 参考訳(メタデータ) (2023-12-07T18:59:41Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - Learning 3D Scene Priors with 2D Supervision [37.79852635415233]
本研究では,3次元の地平を必要とせず,レイアウトや形状の3次元シーンを学習するための新しい手法を提案する。
提案手法は, 3次元シーンを潜在ベクトルとして表現し, クラスカテゴリを特徴とするオブジェクト列に段階的に復号化することができる。
3D-FRONT と ScanNet による実験により,本手法は単一視点再構成における技術状況よりも優れていた。
論文 参考訳(メタデータ) (2022-11-25T15:03:32Z) - Cross-Modal 3D Shape Generation and Manipulation [62.50628361920725]
本稿では,2次元のモダリティと暗黙の3次元表現を共用した多モード生成モデルを提案する。
グレースケールラインスケッチとレンダリングカラー画像の2つの代表的な2次元モーダル性について,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-07-24T19:22:57Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。