論文の概要: Local Implicit Grid Representations for 3D Scenes
- arxiv url: http://arxiv.org/abs/2003.08981v1
- Date: Thu, 19 Mar 2020 18:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:05:53.613118
- Title: Local Implicit Grid Representations for 3D Scenes
- Title(参考訳): 3次元シーンの局所的インシシットグリッド表現
- Authors: Chiyu Max Jiang, Avneesh Sud, Ameesh Makadia, Jingwei Huang, Matthias
Nie{\ss}ner, Thomas Funkhouser
- Abstract要約: 本稿では,拡張性と汎用性のために設計された新しい3次元形状表現であるLocal Implicit Grid Representationsを紹介する。
我々はオートエンコーダを訓練し、その大きさで3次元形状の局所的な作物の埋め込みを学習する。
次に,デコーダを形状最適化のコンポーネントとして使用し,重なり合う作物の正規格子上の潜伏符号の集合を解く。
- 参考スコア(独自算出の注目度): 24.331110387905962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shape priors learned from data are commonly used to reconstruct 3D objects
from partial or noisy data. Yet no such shape priors are available for indoor
scenes, since typical 3D autoencoders cannot handle their scale, complexity, or
diversity. In this paper, we introduce Local Implicit Grid Representations, a
new 3D shape representation designed for scalability and generality. The
motivating idea is that most 3D surfaces share geometric details at some scale
-- i.e., at a scale smaller than an entire object and larger than a small
patch. We train an autoencoder to learn an embedding of local crops of 3D
shapes at that size. Then, we use the decoder as a component in a shape
optimization that solves for a set of latent codes on a regular grid of
overlapping crops such that an interpolation of the decoded local shapes
matches a partial or noisy observation. We demonstrate the value of this
proposed approach for 3D surface reconstruction from sparse point observations,
showing significantly better results than alternative approaches.
- Abstract(参考訳): データから学んだ形状優先は、部分的または騒がしいデータから3dオブジェクトを再構築するために一般的に使用される。
しかし、典型的な3Dオートエンコーダはスケール、複雑さ、多様性を扱えないため、屋内シーンではそのような形状の先行は利用できない。
本稿では,拡張性と汎用性を考慮した新しい3次元形状表現であるLocal Implicit Grid Representationsを紹介する。
動機となる考え方は、ほとんどの3次元曲面は幾何的な詳細をあるスケールで、すなわち、オブジェクト全体よりも小さく、小さなパッチよりも大きいスケールで共有するということである。
オートエンコーダを訓練して、そのサイズの3d形状のローカルな作物の埋め込みを学ぶ。
そして、デコーダを形状最適化の要素として使用し、重なり合う作物の正規格子上の潜在符号の集合を、復号された局所形状の補間が部分的あるいは雑音的な観察と一致するように解決する。
本研究では,この3次元表面再構成法の有用性をスパースポイント観測から示し,代替法よりも有意に良好な結果を得た。
関連論文リスト
- General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - Oriented-grid Encoder for 3D Implicit Representations [10.02138130221506]
本論文は,3次元幾何エンコーダの3次元特性を明示的に利用した最初のものである。
提案手法は,従来の手法と比較して最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-02-09T19:28:13Z) - ConDaFormer: Disassembled Transformer with Local Structure Enhancement
for 3D Point Cloud Understanding [105.98609765389895]
トランスフォーマーは、最近3Dポイントクラウド理解のために研究されている。
0.1万を超える多数のポイントは、ポイントクラウドデータに対してグローバルな自己注意を可能にする。
本稿では,ConDaFormerという新しい変圧器ブロックを開発する。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - 3D Shape Segmentation with Geometric Deep Learning [2.512827436728378]
本稿では,部分分割問題としてセグメント化全体を解くために,3次元形状の3次元拡張ビューを生成するニューラルネットワークベースのアプローチを提案する。
提案手法は,公開データセットの3次元形状と,フォトグラム法を用いて再構成した実物体を用いて検証する。
論文 参考訳(メタデータ) (2020-02-02T14:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。