論文の概要: GenScan: A Generative Method for Populating Parametric 3D Scan Datasets
- arxiv url: http://arxiv.org/abs/2012.03998v1
- Date: Mon, 7 Dec 2020 19:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:20:37.911408
- Title: GenScan: A Generative Method for Populating Parametric 3D Scan Datasets
- Title(参考訳): GenScan: パラメトリック3Dスキャンデータセットの収集方法
- Authors: Mohammad Keshavarzi, Oladapo Afolabi, Luisa Caldas, Allen Y. Yang,
Avideh Zakhor
- Abstract要約: GenScanは、合成3Dスキャンデータセットをパラメトリックに入力する生成システムです。
我々は,3次元コンピュータビジョン,生成設計,一般的な3次元深層学習タスクで一般的に使用されている,現在限られた3次元幾何データセットを拡張するために,データ拡張を促進できると考えている。
- 参考スコア(独自算出の注目度): 0.9449650062296822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The availability of rich 3D datasets corresponding to the geometrical
complexity of the built environments is considered an ongoing challenge for 3D
deep learning methodologies. To address this challenge, we introduce GenScan, a
generative system that populates synthetic 3D scan datasets in a parametric
fashion. The system takes an existing captured 3D scan as an input and outputs
alternative variations of the building layout including walls, doors, and
furniture with corresponding textures. GenScan is a fully automated system that
can also be manually controlled by a user through an assigned user interface.
Our proposed system utilizes a combination of a hybrid deep neural network and
a parametrizer module to extract and transform elements of a given 3D scan.
GenScan takes advantage of style transfer techniques to generate new textures
for the generated scenes. We believe our system would facilitate data
augmentation to expand the currently limited 3D geometry datasets commonly used
in 3D computer vision, generative design, and general 3D deep learning tasks.
- Abstract(参考訳): 構築された環境の幾何学的複雑さに対応するリッチな3Dデータセットの可用性は、3Dディープラーニング方法論の継続的な課題であると考えられている。
この課題に対処するために, 合成3Dスキャンデータセットをパラメトリックな方法で生成するGenScanを導入する。
このシステムは既存の3Dスキャンを入力として、壁やドア、家具など、建築レイアウトの代替的なバリエーションを出力する。
GenScanは、完全に自動化されたシステムで、割り当てられたユーザーインターフェイスを通じて、ユーザーが手動で制御することもできる。
提案システムでは,ハイブリッド深層ニューラルネットワークとパラメトリザーモジュールを組み合わせて,与えられた3dスキャンの要素を抽出・変換する。
GenScanはスタイル転送技術を利用して、生成されたシーンの新しいテクスチャを生成する。
我々は,3次元コンピュータビジョン,生成設計,一般的な3次元深層学習タスクで一般的に使用されている,現在限られた3次元幾何データセットを拡張するために,データ拡張を促進できると考えている。
関連論文リスト
- SCoDA: Domain Adaptive Shape Completion for Real Scans [78.92028595499245]
点雲からの3D形状の完成は、特に現実世界のオブジェクトのスキャンによる難しい作業である。
合成データから実スキャン形状完了の領域適応のための新しいタスクであるSCoDAを提案する。
本稿では,知識伝達のための新しいクロスドメイン機能融合手法と,実データからの堅牢な学習のための新しいボリューム一貫性の自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-20T09:38:26Z) - SepicNet: Sharp Edges Recovery by Parametric Inference of Curves in 3D
Shapes [16.355677959323426]
本稿では,3次元形状の鋭いエッジを原始曲線として検出・パラメータ化するための新しいディープネットワークであるSepicNetを紹介する。
我々は,一様サンプリングよりも鋭い特徴を捕集する適応点雲サンプリング手法を開発した。
論文 参考訳(メタデータ) (2023-04-13T13:37:21Z) - TSCom-Net: Coarse-to-Fine 3D Textured Shape Completion Network [14.389603490486364]
3次元部分的テクスチャスキャンから3次元の人体形状を再構築することは、多くのコンピュータビジョンやグラフィックスアプリケーションにとって基本的な課題である。
本稿では,3次元体形状と高分解能テクスチャ補完のためのニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-18T11:06:10Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - It's All Around You: Range-Guided Cylindrical Network for 3D Object
Detection [4.518012967046983]
本研究は,360度深度スキャナーによって生成された3次元データを解析するための新しい手法を提案する。
距離誘導畳み込みの概念を導入し,エゴ車と物体のスケールからの距離で受容場を適応させる。
我々のネットワークは、現在の最先端アーキテクチャに匹敵するnuScenesチャレンジにおいて、強力な結果を示す。
論文 参考訳(メタデータ) (2020-12-05T21:02:18Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z) - Frustum VoxNet for 3D object detection from RGB-D or Depth images [1.14219428942199]
RGB-Dまたは深度のみの点群からの新しい3次元物体検出システムについて述べる。
我々のシステムはまず2Dで物体を検知する(RGBでも擬似RGBでも)。
我々のシステムの主な新規性は、酸化するフラストラムのどの部分(3D提案)を決定づけることである。
論文 参考訳(メタデータ) (2019-10-12T04:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。