論文の概要: Single-view 3D Mesh Reconstruction for Seen and Unseen Categories
- arxiv url: http://arxiv.org/abs/2208.02676v2
- Date: Sat, 3 Jun 2023 07:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 04:54:32.028709
- Title: Single-view 3D Mesh Reconstruction for Seen and Unseen Categories
- Title(参考訳): 単視点3Dメッシュによる鮮やかなカテゴリの再構築
- Authors: Xianghui Yang, Guosheng Lin, Luping Zhou
- Abstract要約: シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
- 参考スコア(独自算出の注目度): 69.29406107513621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-view 3D object reconstruction is a fundamental and challenging
computer vision task that aims at recovering 3D shapes from single-view RGB
images. Most existing deep learning based reconstruction methods are trained
and evaluated on the same categories, and they cannot work well when handling
objects from novel categories that are not seen during training. Focusing on
this issue, this paper tackles Single-view 3D Mesh Reconstruction, to study the
model generalization on unseen categories and encourage models to reconstruct
objects literally. Specifically, we propose an end-to-end two-stage network,
GenMesh, to break the category boundaries in reconstruction. Firstly, we
factorize the complicated image-to-mesh mapping into two simpler mappings,
i.e., image-to-point mapping and point-to-mesh mapping, while the latter is
mainly a geometric problem and less dependent on object categories. Secondly,
we devise a local feature sampling strategy in 2D and 3D feature spaces to
capture the local geometry shared across objects to enhance model
generalization. Thirdly, apart from the traditional point-to-point supervision,
we introduce a multi-view silhouette loss to supervise the surface generation
process, which provides additional regularization and further relieves the
overfitting problem. The experimental results show that our method
significantly outperforms the existing works on the ShapeNet and Pix3D under
different scenarios and various metrics, especially for novel objects. The
project link is https://github.com/Wi-sc/GenMesh.
- Abstract(参考訳): シングルビューRGB画像から3次元形状を復元することを目的とした,基本的なコンピュータビジョンタスクである。
既存のディープラーニングに基づく再構築手法の多くは,同じカテゴリで訓練・評価されており,トレーニング中に見えない新しいカテゴリのオブジェクトを扱う場合,うまく動作しない。
本論では, 単一視点3次元メッシュ再構成に取り組み, 未知のカテゴリのモデル一般化について検討し, オブジェクトを文字通り再構成することを奨励する。
具体的には,エンド・ツー・エンドの2段階ネットワークであるgenmeshを提案する。
まず,複雑なイメージ・ツー・メッシュマッピングを,画像・ツー・ポイントマッピングとポイント・ツー・メッシュマッピングという,より単純な2つのマッピングに分解する。
次に,2次元および3次元特徴空間における局所特徴サンプリング戦略を考案し,オブジェクト間で共有される局所幾何をキャプチャし,モデルの一般化を促進する。
第3に、従来の点対点監視とは別に、表面生成過程を監督する多視点シルエット損失を導入し、さらなる正規化とオーバーフィッティング問題を緩和する。
実験結果から,本手法は様々なシナリオ,特に新規オブジェクトにおいて,ShapeNetとPix3Dの既存手法よりも優れた性能を示した。
プロジェクトリンクはhttps://github.com/wi-sc/genmesh。
関連論文リスト
- Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - Black-Box Test-Time Shape REFINEment for Single View 3D Reconstruction [57.805334118057665]
文献中の任意のブラックボックス方式のパイプラインに容易に組み込むことができる後処理メッシュ改善ステップであるREFINEを提案する。
テスト時には、REFINEはメッシュ毎のネットワークインスタンスを最適化し、メッシュと所定のオブジェクトビュー間の一貫性を促進する。
論文 参考訳(メタデータ) (2021-08-23T03:28:47Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。