論文の概要: Hierarchical Superquadric Decomposition with Implicit Space Separation
- arxiv url: http://arxiv.org/abs/2209.07619v1
- Date: Thu, 15 Sep 2022 21:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:44:04.006715
- Title: Hierarchical Superquadric Decomposition with Implicit Space Separation
- Title(参考訳): 入射空間分離を伴う階層的超二次分解
- Authors: Jaka \v{S}ircelj, Peter Peer, Franc Solina, Vitomir \v{S}truc
- Abstract要約: ボリュームプリミティブの集合、すなわちスーパークワッドリックを用いて3Dオブジェクトを再構成する新しい手法を提案する。
この方法は、ターゲットの3Dオブジェクトを、より細部と細部を回復するスーパークワッドリックのペアに階層的に分解する。
この方法はShapeNetデータセットでトレーニングされ、評価される。
- 参考スコア(独自算出の注目度): 1.0832844764942349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new method to reconstruct 3D objects using a set of volumetric
primitives, i.e., superquadrics. The method hierarchically decomposes a target
3D object into pairs of superquadrics recovering finer and finer details. While
such hierarchical methods have been studied before, we introduce a new way of
splitting the object space using only properties of the predicted
superquadrics. The method is trained and evaluated on the ShapeNet dataset. The
results of our experiments suggest that reasonable reconstructions can be
obtained with the proposed approach for a diverse set of objects with complex
geometry.
- Abstract(参考訳): ボリュームプリミティブの集合、すなわちスーパークワッドリックを用いて3Dオブジェクトを再構成する新しい手法を提案する。
この方法は、ターゲットの3dオブジェクトを、より細部と細部を復元するスーパークアドリックのペアに階層的に分解する。
このような階層的手法はこれまで研究されてきたが、予測された超二次体の性質のみを用いて対象空間を分割する新しい方法を導入する。
この方法はShapeNetデータセットでトレーニングされ評価される。
実験の結果, 複雑な形状を持つ多種多様な物体に対して, 合理的な再構成が可能であることが示唆された。
関連論文リスト
- Reconstructing Hand-Held Objects from Monocular Video [95.06750686508315]
本稿では,モノクロ映像から手持ち物体を再構成する手法を提案する。
トレーニングされたネットワークによってオブジェクトの幾何学を直接予測する最近の多くの手法とは対照的に、提案手法ではオブジェクトに先行する学習を一切必要としない。
論文 参考訳(メタデータ) (2022-11-30T09:14:58Z) - Learning to Complete Object Shapes for Object-level Mapping in Dynamic
Scenes [30.500198859451434]
本研究では,動的シーンにおけるオブジェクトの分割,追跡,再構築を同時に行うオブジェクトレベルのマッピングシステムを提案する。
さらに、深度入力とカテゴリレベルの前の形状からの再構成を条件にすることで、完全なジオメトリを予測し、完成させることができる。
実世界の合成シーケンスと実世界のシーケンスの両方で定量的に定性的にテストすることで,その有効性を評価する。
論文 参考訳(メタデータ) (2022-08-09T22:56:33Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - Automated LoD-2 Model Reconstruction from Very-HighResolution
Satellite-derived Digital Surface Model and Orthophoto [1.2691047660244335]
本稿では,LoD-2ビルディングモデルを「分解最適化最適化」パラダイムに従って再構成するモデル駆動手法を提案する。
提案手法は,既存の手法に対するいくつかの技術的問題点に対処し,その有効性を実証した。
論文 参考訳(メタデータ) (2021-09-08T19:03:09Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Sparse-data based 3D surface reconstruction with vector matching [4.471370467116141]
正規ベクトルマッチングと第1次および第2次全変分正規化器を組み合わせた新しいモデルが提案されている。
拡張ラグランジアンに基づく高速アルゴリズムも提案されている。
論文 参考訳(メタデータ) (2020-09-28T00:36:49Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。