論文の概要: Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion
- arxiv url: http://arxiv.org/abs/2003.01456v2
- Date: Wed, 15 Apr 2020 14:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 22:16:50.045478
- Title: Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion
- Title(参考訳): 3次元形状再構成と完成のための特徴空間のインプシット関数
- Authors: Julian Chibane, Thiemo Alldieck, Gerard Pons-Moll
- Abstract要約: Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
- 参考スコア(独自算出の注目度): 53.885984328273686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While many works focus on 3D reconstruction from images, in this paper, we
focus on 3D shape reconstruction and completion from a variety of 3D inputs,
which are deficient in some respect: low and high resolution voxels, sparse and
dense point clouds, complete or incomplete. Processing of such 3D inputs is an
increasingly important problem as they are the output of 3D scanners, which are
becoming more accessible, and are the intermediate output of 3D computer vision
algorithms. Recently, learned implicit functions have shown great promise as
they produce continuous reconstructions. However, we identified two limitations
in reconstruction from 3D inputs: 1) details present in the input data are not
retained, and 2) poor reconstruction of articulated humans. To solve this, we
propose Implicit Feature Networks (IF-Nets), which deliver continuous outputs,
can handle multiple topologies, and complete shapes for missing or sparse input
data retaining the nice properties of recent learned implicit functions, but
critically they can also retain detail when it is present in the input data,
and can reconstruct articulated humans. Our work differs from prior work in two
crucial aspects. First, instead of using a single vector to encode a 3D shape,
we extract a learnable 3-dimensional multi-scale tensor of deep features, which
is aligned with the original Euclidean space embedding the shape. Second,
instead of classifying x-y-z point coordinates directly, we classify deep
features extracted from the tensor at a continuous query point. We show that
this forces our model to make decisions based on global and local shape
structure, as opposed to point coordinates, which are arbitrary under Euclidean
transformations. Experiments demonstrate that IF-Nets clearly outperform prior
work in 3D object reconstruction in ShapeNet, and obtain significantly more
accurate 3D human reconstructions.
- Abstract(参考訳): 画像からの3次元復元に多くの研究が集中しているが,本稿では,低分解能・高分解能ボクセル,疎密点雲,完全・不完全といった,様々な3次元入力からの3次元形状復元と完成に焦点をあてる。
このような3d入力の処理は、3dスキャナの出力がよりアクセスしやすくなり、3dコンピュータビジョンアルゴリズムの中間出力となるため、ますます重要な問題となっている。
近年,学習された暗黙関数は,連続的な再構築を実現する上で大きな期待が持たれている。
しかし,3次元入力からの復元には2つの限界があった。
1)入力データに含まれている詳細は保持されず、かつ
2)ヒトの関節再建は不良であった。
そこで本研究では,連続的な出力を処理し,複数のトポロジを処理可能な暗黙的特徴ネットワーク (if-nets) を提案する。
私たちの仕事は2つの重要な点で以前の仕事と異なる。
まず,1つのベクトルを用いて3次元形状を符号化する代わりに,その形状を埋め込んだユークリッド空間と整合した深部特徴の学習可能な3次元多次元テンソルを抽出する。
第2に、x-y-z点座標を直接分類するのではなく、テンソルから抽出した深い特徴を連続的なクエリポイントで分類する。
これは、ユークリッド変換の下で任意の点座標に対して、我々のモデルが大域的および局所的な形状構造に基づいて決定を迫ることを示している。
実験により、IF-NetはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人体再構成が得られることが示された。
関連論文リスト
- Multi-View Representation is What You Need for Point-Cloud Pre-Training [22.55455166875263]
本稿では,事前学習した2次元ネットワークを利用して3次元表現を学習するポイントクラウド事前学習手法を提案する。
我々は,新しい2次元知識伝達損失の助けを借りて,3次元特徴抽出ネットワークを訓練する。
実験結果から,事前学習したモデルを様々な下流タスクに転送できることが判明した。
論文 参考訳(メタデータ) (2023-06-05T03:14:54Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。