論文の概要: StrobeNet: Category-Level Multiview Reconstruction of Articulated
Objects
- arxiv url: http://arxiv.org/abs/2105.08016v1
- Date: Mon, 17 May 2021 17:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:29:10.850847
- Title: StrobeNet: Category-Level Multiview Reconstruction of Articulated
Objects
- Title(参考訳): StrobeNet: 人工物体のカテゴリーレベルマルチビュー再構成
- Authors: Ge Zhang, Or Litany, Srinath Sridhar, Leonidas Guibas
- Abstract要約: StrobeNetは、未提示のRGB画像から明瞭なオブジェクトをカテゴリレベルの3D再構成する手法である。
私たちのアプローチは、大きなベースラインを持つ画像で異なる表現で観察された場合でも、オブジェクトを再構築します。
- 参考スコア(独自算出の注目度): 17.698319441265223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present StrobeNet, a method for category-level 3D reconstruction of
articulating objects from one or more unposed RGB images. Reconstructing
general articulating object categories % has important applications, but is
challenging since objects can have wide variation in shape, articulation,
appearance and topology. We address this by building on the idea of
category-level articulation canonicalization -- mapping observations to a
canonical articulation which enables correspondence-free multiview aggregation.
Our end-to-end trainable neural network estimates feature-enriched canonical 3D
point clouds, articulation joints, and part segmentation from one or more
unposed images of an object. These intermediate estimates are used to generate
a final implicit 3D reconstruction.Our approach reconstructs objects even when
they are observed in different articulations in images with large baselines,
and animation of reconstructed shapes. Quantitative and qualitative evaluations
on different object categories show that our method is able to achieve high
reconstruction accuracy, especially as more views are added.
- Abstract(参考訳): 本研究では,1つ以上のRGB画像から合成対象をカテゴリーレベルの3次元再構成するStrobeNetを提案する。
一般の調音対象のカテゴリ % を再構成することは重要な応用であるが、物体の形状、調音、外観、トポロジーが幅広いため困難である。
ここでは, 対応のない多視点アグリゲーションが可能な標準調音に, 観測結果をマッピングする, カテゴリーレベルの調音正則化というアイデアに基づいて, この問題に対処する。
エンド・ツー・エンドのトレーニング可能なニューラルネットワークは、オブジェクトの1つ以上の未処理画像から特徴量豊富な正準3dポイント雲、調音関節、部分分割を推定する。
これらの中間推定値を用いて、最終的な暗黙的な3次元再構成を行い、大きなベースラインを持つ画像の異なる調音で観察された場合でもオブジェクトを再構成し、再構成された形状のアニメーションを作成する。
異なる対象カテゴリにおける定量的・定性評価は,特により多くのビューを付加すれば高い再構成精度が得られることを示す。
関連論文リスト
- Category-level Neural Field for Reconstruction of Partially Observed Objects in Indoor Environment [24.880495520422006]
シーン内に存在する同じカテゴリに属するオブジェクト間で有意義な共通3D情報を学習するカテゴリレベルのニューラルフィールドを提案する。
私たちのキーとなるアイデアは、観察された形状に基づいてオブジェクトを分類し、カテゴリレベルのモデルのより良いトレーニングを行うことです。
シミュレーションと実世界のデータセットによる実験により,いくつかのカテゴリで観測されていない部分の再構成を改善することが実証された。
論文 参考訳(メタデータ) (2024-06-12T13:09:59Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Pre-train, Self-train, Distill: A simple recipe for Supersizing 3D
Reconstruction [47.38670633513938]
我々は、数百のセマンティックカテゴリからオブジェクトの単一ビュー3D再構成のための統一モデルを学ぶ。
我々の研究は、一般的なカテゴリの3D学習のための分割画像収集に依存している。
論文 参考訳(メタデータ) (2022-04-07T17:59:25Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。