論文の概要: GenScan: A Generative Method for Populating Parametric 3D Scan Datasets
- arxiv url: http://arxiv.org/abs/2012.03998v1
- Date: Mon, 7 Dec 2020 19:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:20:37.911408
- Title: GenScan: A Generative Method for Populating Parametric 3D Scan Datasets
- Title(参考訳): GenScan: パラメトリック3Dスキャンデータセットの収集方法
- Authors: Mohammad Keshavarzi, Oladapo Afolabi, Luisa Caldas, Allen Y. Yang,
Avideh Zakhor
- Abstract要約: GenScanは、合成3Dスキャンデータセットをパラメトリックに入力する生成システムです。
我々は,3次元コンピュータビジョン,生成設計,一般的な3次元深層学習タスクで一般的に使用されている,現在限られた3次元幾何データセットを拡張するために,データ拡張を促進できると考えている。
- 参考スコア(独自算出の注目度): 0.9449650062296822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The availability of rich 3D datasets corresponding to the geometrical
complexity of the built environments is considered an ongoing challenge for 3D
deep learning methodologies. To address this challenge, we introduce GenScan, a
generative system that populates synthetic 3D scan datasets in a parametric
fashion. The system takes an existing captured 3D scan as an input and outputs
alternative variations of the building layout including walls, doors, and
furniture with corresponding textures. GenScan is a fully automated system that
can also be manually controlled by a user through an assigned user interface.
Our proposed system utilizes a combination of a hybrid deep neural network and
a parametrizer module to extract and transform elements of a given 3D scan.
GenScan takes advantage of style transfer techniques to generate new textures
for the generated scenes. We believe our system would facilitate data
augmentation to expand the currently limited 3D geometry datasets commonly used
in 3D computer vision, generative design, and general 3D deep learning tasks.
- Abstract(参考訳): 構築された環境の幾何学的複雑さに対応するリッチな3Dデータセットの可用性は、3Dディープラーニング方法論の継続的な課題であると考えられている。
この課題に対処するために, 合成3Dスキャンデータセットをパラメトリックな方法で生成するGenScanを導入する。
このシステムは既存の3Dスキャンを入力として、壁やドア、家具など、建築レイアウトの代替的なバリエーションを出力する。
GenScanは、完全に自動化されたシステムで、割り当てられたユーザーインターフェイスを通じて、ユーザーが手動で制御することもできる。
提案システムでは,ハイブリッド深層ニューラルネットワークとパラメトリザーモジュールを組み合わせて,与えられた3dスキャンの要素を抽出・変換する。
GenScanはスタイル転送技術を利用して、生成されたシーンの新しいテクスチャを生成する。
我々は,3次元コンピュータビジョン,生成設計,一般的な3次元深層学習タスクで一般的に使用されている,現在限られた3次元幾何データセットを拡張するために,データ拡張を促進できると考えている。
関連論文リスト
- Learning 3D Representations from Procedural 3D Programs [6.915871213703219]
自己教師付き学習は、ラベルのない3Dポイントクラウドから転送可能な3D表現を取得するための有望なアプローチとして登場した。
簡単なプリミティブと拡張を使って3次元形状を自動的に生成する手続き型3Dプログラムから3次元表現を学習する。
論文 参考訳(メタデータ) (2024-11-25T18:59:57Z) - FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - X-Ray: A Sequential 3D Representation For Generation [54.160173837582796]
我々は、X線スキャンにインスパイアされた新しい3Dシーケンシャル表現であるX線を紹介する。
X線は3Dオブジェクトを異なる層で一連の表面フレームに変換するため、画像から3Dモデルを生成するのに適している。
論文 参考訳(メタデータ) (2024-04-22T16:40:11Z) - SepicNet: Sharp Edges Recovery by Parametric Inference of Curves in 3D
Shapes [16.355677959323426]
本稿では,3次元形状の鋭いエッジを原始曲線として検出・パラメータ化するための新しいディープネットワークであるSepicNetを紹介する。
我々は,一様サンプリングよりも鋭い特徴を捕集する適応点雲サンプリング手法を開発した。
論文 参考訳(メタデータ) (2023-04-13T13:37:21Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - It's All Around You: Range-Guided Cylindrical Network for 3D Object
Detection [4.518012967046983]
本研究は,360度深度スキャナーによって生成された3次元データを解析するための新しい手法を提案する。
距離誘導畳み込みの概念を導入し,エゴ車と物体のスケールからの距離で受容場を適応させる。
我々のネットワークは、現在の最先端アーキテクチャに匹敵するnuScenesチャレンジにおいて、強力な結果を示す。
論文 参考訳(メタデータ) (2020-12-05T21:02:18Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z) - Frustum VoxNet for 3D object detection from RGB-D or Depth images [1.14219428942199]
RGB-Dまたは深度のみの点群からの新しい3次元物体検出システムについて述べる。
我々のシステムはまず2Dで物体を検知する(RGBでも擬似RGBでも)。
我々のシステムの主な新規性は、酸化するフラストラムのどの部分(3D提案)を決定づけることである。
論文 参考訳(メタデータ) (2019-10-12T04:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。