論文の概要: AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph
- arxiv url: http://arxiv.org/abs/2005.13312v2
- Date: Thu, 28 May 2020 01:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:14:30.343533
- Title: AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph
- Title(参考訳): 1枚の写真から3D編集可能な物体を復元するAutoSweep
- Authors: Xin Chen, Yuwei Li, Xi Luo, Tianjia Shao, Jingyi Yu, Kun Zhou, Youyi
Zheng
- Abstract要約: セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
- 参考スコア(独自算出の注目度): 54.701098964773756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a fully automatic framework for extracting editable 3D
objects directly from a single photograph. Unlike previous methods which
recover either depth maps, point clouds, or mesh surfaces, we aim to recover 3D
objects with semantic parts and can be directly edited. We base our work on the
assumption that most human-made objects are constituted by parts and these
parts can be well represented by generalized primitives. Our work makes an
attempt towards recovering two types of primitive-shaped objects, namely,
generalized cuboids and generalized cylinders. To this end, we build a novel
instance-aware segmentation network for accurate part separation. Our GeoNet
outputs a set of smooth part-level masks labeled as profiles and bodies. Then
in a key stage, we simultaneously identify profile-body relations and recover
3D parts by sweeping the recognized profile along their body contour and
jointly optimize the geometry to align with the recovered masks. Qualitative
and quantitative experiments show that our algorithm can recover high quality
3D models and outperforms existing methods in both instance segmentation and 3D
reconstruction. The dataset and code of AutoSweep are available at
https://chenxin.tech/AutoSweep.html.
- Abstract(参考訳): 本論文では,1枚の写真から編集可能な3dオブジェクトを自動抽出するフレームワークを提案する。
深度マップ,点雲,メッシュ表面のいずれかを復元する従来の手法とは異なり,我々はセマンティックな部分で3Dオブジェクトを復元し,直接編集することを目指している。
我々は、ほとんどの人造オブジェクトが部品で構成されており、これらの部品は一般化されたプリミティブによってうまく表現できるという仮定に基づいて研究を行っている。
本研究は,2種類の原始的な物体,すなわち一般化された立方体と一般化されたシリンダの回収を試みるものである。
この目的のために,新しいインスタンス対応セグメンテーションネットワークを構築し,正確な部分分離を行う。
GeoNetは、プロファイルとボディとラベル付けされたスムーズな部分レベルのマスクを出力します。
そして, 基本段階において, 認識された形状を輪郭に沿って掃き, 回収されたマスクと整合する形状を共同で最適化することにより, 形状-身体関係を識別し, 3次元部品を回収する。
定性的かつ定量的な実験により,我々のアルゴリズムは高品質な3Dモデルを復元し,既存の手法をインスタンスセグメンテーションと3D再構成の両方で上回っていることを示す。
AutoSweepのデータセットとコードはhttps://chenxin.tech/AutoSweep.htmlで公開されている。
関連論文リスト
- Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Iterative Superquadric Recomposition of 3D Objects from Multiple Views [77.53142165205283]
2次元ビューから直接3次元スーパークワッドリックを意味部品として用いたオブジェクトを再構成するフレームワークISCOを提案する。
我々のフレームワークは、再構成エラーが高い場合に、反復的に新しいスーパークワッドリックを追加します。
これは、野生の画像からでも、より正確な3D再構成を提供する。
論文 参考訳(メタデータ) (2023-09-05T10:21:37Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。