論文の概要: SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static
Images
- arxiv url: http://arxiv.org/abs/2010.10505v1
- Date: Tue, 20 Oct 2020 17:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 05:54:42.116787
- Title: SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static
Images
- Title(参考訳): SDF-SRN:静的画像を用いた距離3次元物体再構成学習
- Authors: Chen-Hsuan Lin, Chaoyang Wang, Simon Lucey
- Abstract要約: 近年の取り組みは、注釈付き2DシルエットによるRGB画像から3Dの監督なしに3Dの再構築を学ぶことに変わった。
これらのテクニックは、トレーニング中に同じオブジェクトインスタンスのマルチビューアノテーションを必要とする。
本研究では,SDF-SRNを提案する。
- 参考スコア(独自算出の注目度): 44.78174845839193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense 3D object reconstruction from a single image has recently witnessed
remarkable advances, but supervising neural networks with ground-truth 3D
shapes is impractical due to the laborious process of creating paired
image-shape datasets. Recent efforts have turned to learning 3D reconstruction
without 3D supervision from RGB images with annotated 2D silhouettes,
dramatically reducing the cost and effort of annotation. These techniques,
however, remain impractical as they still require multi-view annotations of the
same object instance during training. As a result, most experimental efforts to
date have been limited to synthetic datasets. In this paper, we address this
issue and propose SDF-SRN, an approach that requires only a single view of
objects at training time, offering greater utility for real-world scenarios.
SDF-SRN learns implicit 3D shape representations to handle arbitrary shape
topologies that may exist in the datasets. To this end, we derive a novel
differentiable rendering formulation for learning signed distance functions
(SDF) from 2D silhouettes. Our method outperforms the state of the art under
challenging single-view supervision settings on both synthetic and real-world
datasets.
- Abstract(参考訳): 単一の画像から高密度な3Dオブジェクトを再構築することは、最近顕著な進歩をみせたが、一対のイメージ形状のデータセットを作成するという面倒なプロセスのため、地上の3D形状を持つニューラルネットワークの監視は現実的ではない。
近年, 注釈付き2次元シルエットを用いたRGB画像から3次元の3次元再構成を学習し, アノテーションのコストと労力を大幅に削減している。
しかし、トレーニング中に同じオブジェクトインスタンスのマルチビューアノテーションが必要であるため、これらのテクニックは実用的ではない。
その結果、現在までのほとんどの実験は合成データセットに限られている。
本稿では,sdf-srnを提案する。sdf-srnは,実世界のシナリオにおいて,オブジェクトの単一のビューのみを必要とするアプローチである。
SDF-SRNは、データセットに存在する可能性のある任意の形状トポロジーを扱うために、暗黙の3D形状表現を学ぶ。
この目的のために、2次元シルエットから符号付き距離関数(SDF)を学習するための新しい微分可能レンダリング式を導出する。
本手法は,合成データと実世界のデータの両方において,単一視点の監督設定に挑戦する手法である。
関連論文リスト
- Few-Shot Unsupervised Implicit Neural Shape Representation Learning with Spatial Adversaries [8.732260277121547]
Inlicit Neural Representationsは、複雑なデータモダリティをキャプチャする強力なフレームワークとして注目されている。
3次元形状表現の領域内では、ニューラルネットワーク符号距離関数(SDF)は複雑な形状幾何を忠実に符号化する顕著な可能性を示している。
論文 参考訳(メタデータ) (2024-08-27T14:54:33Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations [42.476537776831314]
非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
論文 参考訳(メタデータ) (2020-07-21T17:29:20Z) - Self-Supervised 2D Image to 3D Shape Translation with Disentangled
Representations [92.89846887298852]
本稿では,2次元画像ビューと3次元オブジェクト形状を翻訳するフレームワークを提案する。
形状変換のための自己教師型画像変換フレームワークであるSISTを提案する。
論文 参考訳(メタデータ) (2020-03-22T22:44:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。