論文の概要: A Simple and Scalable Shape Representation for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2005.04623v1
- Date: Sun, 10 May 2020 10:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:55:47.366207
- Title: A Simple and Scalable Shape Representation for 3D Reconstruction
- Title(参考訳): 3次元再構成のためのシンプルでスケーラブルな形状表現
- Authors: Mateusz Michalkiewicz, Eugene Belilovsky, Mahsa Baktashmotlagh, Anders
Eriksson
- Abstract要約: 表面の符号付き距離関数(SDF)の主成分分析から得られた線形デコーダを用いて高品質な3次元再構成が得られることを示す。
このアプローチにより、より大規模な解像度へのスケーリングが容易になる。
- 参考スコア(独自算出の注目度): 22.826897662839357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning applied to the reconstruction of 3D shapes has seen growing
interest. A popular approach to 3D reconstruction and generation in recent
years has been the CNN encoder-decoder model usually applied in voxel space.
However, this often scales very poorly with the resolution limiting the
effectiveness of these models. Several sophisticated alternatives for decoding
to 3D shapes have been proposed typically relying on complex deep learning
architectures for the decoder model. In this work, we show that this additional
complexity is not necessary, and that we can actually obtain high quality 3D
reconstruction using a linear decoder, obtained from principal component
analysis on the signed distance function (SDF) of the surface. This approach
allows easily scaling to larger resolutions. We show in multiple experiments
that our approach is competitive with state-of-the-art methods. It also allows
the decoder to be fine-tuned on the target task using a loss designed
specifically for SDF transforms, obtaining further gains.
- Abstract(参考訳): 深層学習が3次元形状の再構築に応用されることが注目されている。
近年の3D再構成と生成に対する一般的なアプローチは、通常、ボクセル空間に適用されるCNNエンコーダデコーダモデルである。
しかし、これはしばしば、これらのモデルの有効性を制限した解像度で非常に貧弱なスケールとなる。
3次元形状へのデコードのためのいくつかの洗練された代替案は、典型的にはデコーダモデルのために複雑なディープラーニングアーキテクチャに依存している。
本研究では,この余分な複雑さは不要であり,表面の符号付き距離関数(SDF)の主成分分析から得られた線形デコーダを用いて,実際に高品質な3次元再構成が得られることを示す。
このアプローチにより、より大きな解像度へのスケーリングが容易になる。
複数の実験で、我々の手法は最先端の手法と競合することを示した。
また、SDF変換用に特別に設計された損失を使用して、デコーダをターゲットタスクに微調整し、さらなる利得を得ることもできる。
関連論文リスト
- GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - TIFu: Tri-directional Implicit Function for High-Fidelity 3D Character
Reconstruction [35.299242563565315]
Tri-directional Implicit Function (TIFu) は、メモリ使用量を大幅に削減しつつ、グローバルな3Dコンピテンシーを増大させるベクトルレベル表現である。
3つの軸に沿ってベクトルを集約することで任意の解像度で3次元再構成に新しいアルゴリズムを導入する。
提案手法は,自己計算したキャラクタデータセットとベンチマーク3次元人的データセットの両方において,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-01-25T23:30:51Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z) - Make Encoder Great Again in 3D GAN Inversion through Geometry and
Occlusion-Aware Encoding [25.86312557482366]
3D GANインバージョンは、単一の画像入力から高い再構成忠実度と合理的な3D幾何を同時に達成することを目的としている。
本稿では,最も広く使用されている3D GANモデルの1つであるEG3Dに基づく,新しいエンコーダベースの逆変換フレームワークを提案する。
提案手法は,最大500倍高速に動作しながら,最適化手法に匹敵する印象的な結果が得られる。
論文 参考訳(メタデータ) (2023-03-22T05:51:53Z) - FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions [97.5540646069663]
指向性距離関数(DDF)と呼ばれる新しいニューラルシーン表現を導入する。
DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
論文 参考訳(メタデータ) (2022-03-30T13:24:04Z) - 3D Shapes Local Geometry Codes Learning with SDF [8.37542758486152]
3次元形状記述としての符号付き距離関数(SDF)は、描画と再構成のための3次元幾何学を表現する最も効果的な手法の1つである。
本稿では,DeepSDFモデルのキャパシティ低下から生じる復元の劣化問題について考察する。
本稿では,局所形状から学習することで,元のDeepSDF結果を改善するモデルであるローカル幾何符号学習(LGCL)を提案する。
論文 参考訳(メタデータ) (2021-08-19T09:56:03Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。