論文の概要: Convolutional Occupancy Networks
- arxiv url: http://arxiv.org/abs/2003.04618v2
- Date: Sat, 1 Aug 2020 20:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:11:58.330828
- Title: Convolutional Occupancy Networks
- Title(参考訳): 畳み込み型占有ネットワーク
- Authors: Songyou Peng, Michael Niemeyer, Lars Mescheder, Marc Pollefeys,
Andreas Geiger
- Abstract要約: 本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
- 参考スコア(独自算出の注目度): 88.48287716452002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, implicit neural representations have gained popularity for
learning-based 3D reconstruction. While demonstrating promising results, most
implicit approaches are limited to comparably simple geometry of single objects
and do not scale to more complicated or large-scale scenes. The key limiting
factor of implicit methods is their simple fully-connected network architecture
which does not allow for integrating local information in the observations or
incorporating inductive biases such as translational equivariance. In this
paper, we propose Convolutional Occupancy Networks, a more flexible implicit
representation for detailed reconstruction of objects and 3D scenes. By
combining convolutional encoders with implicit occupancy decoders, our model
incorporates inductive biases, enabling structured reasoning in 3D space. We
investigate the effectiveness of the proposed representation by reconstructing
complex geometry from noisy point clouds and low-resolution voxel
representations. We empirically find that our method enables the fine-grained
implicit 3D reconstruction of single objects, scales to large indoor scenes,
and generalizes well from synthetic to real data.
- Abstract(参考訳): 近年、暗黙の神経表現が学習に基づく3D再構成で人気を集めている。
有望な結果を示す一方で、ほとんどの暗黙的なアプローチは単一のオブジェクトの単純な幾何学に限られており、より複雑で大規模なシーンにスケールしない。
暗黙的手法の鍵となる制限要因は、観察中に局所的な情報を統合したり、翻訳等価性のような帰納的バイアスを組み込むことができない、単純な完全連結ネットワークアーキテクチャである。
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込みネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせたモデルでは,帰納的バイアスが組み込まれ,3次元空間における構造化推論が可能となる。
ノイズ点雲と低分解能ボクセル表現から複素幾何を再構成することにより,提案表現の有効性を検討する。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
関連論文リスト
- Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - SHINE-Mapping: Large-Scale 3D Mapping Using Sparse Hierarchical Implicit
Neural Representations [37.733802382489515]
本稿では, 3次元LiDAR計測を用いて, 暗示表現を用いた大規模3次元再構成を実現する際の課題について述べる。
我々はオクツリーに基づく階層構造を通じて暗黙的な特徴を学習し、保存する。
我々の3D再構成は、現在の最先端3Dマッピング法よりも正確で、完全で、メモリ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-10-05T14:38:49Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。