論文の概要: Unsupervised Severely Deformed Mesh Reconstruction (DMR) from a
Single-View Image
- arxiv url: http://arxiv.org/abs/2201.09373v1
- Date: Sun, 23 Jan 2022 21:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:48:02.281334
- Title: Unsupervised Severely Deformed Mesh Reconstruction (DMR) from a
Single-View Image
- Title(参考訳): シングルビュー画像からの非教師なし重変形メッシュ再構成(DMR)
- Authors: Jie Mei, Jingxi Yu, Suzanne Romain, Craig Rose, Kelsey Magrane, Graeme
LeeSon, Jenq-Neng Hwang
- Abstract要約: 単視点画像から3次元形状を推定するテンプレートベースの手法を導入し、再構成メッシュを下流タスクに適用する。
本手法は3次元メッシュを忠実に再構築し,魚の群集長計測における最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 26.464091507125826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much progress has been made in the supervised learning of 3D reconstruction
of rigid objects from multi-view images or a video. However, it is more
challenging to reconstruct severely deformed objects from a single-view RGB
image in an unsupervised manner. Although training-based methods, such as
specific category-level training, have been shown to successfully reconstruct
rigid objects and slightly deformed objects like birds from a single-view
image, they cannot effectively handle severely deformed objects and neither can
be applied to some downstream tasks in the real world due to the inconsistent
semantic meaning of vertices, which are crucial in defining the adopted 3D
templates of objects to be reconstructed. In this work, we introduce a
template-based method to infer 3D shapes from a single-view image and apply the
reconstructed mesh to a downstream task, i.e., absolute length measurement.
Without using 3D ground truth, our method faithfully reconstructs 3D meshes and
achieves state-of-the-art accuracy in a length measurement task on a severely
deformed fish dataset.
- Abstract(参考訳): 多視点画像やビデオからの剛体物体の3次元再構成の教師あり学習において、多くの進歩があった。
しかし、一視点のRGB画像から厳格に変形した物体を教師なしで再構成することはより困難である。
特定のカテゴリレベルのトレーニングのようなトレーニングベースの方法は、単一視点画像から鳥のような剛体オブジェクトやわずかに変形したオブジェクトを復元するのに成功することが示されているが、それらは効果的に非常に変形したオブジェクトを扱えず、また、再構成されるオブジェクトの3dテンプレートを定義するのに不可欠な頂点の一貫性のない意味のために、現実世界のいくつかの下流タスクにも適用できない。
本研究では,一視点画像から3次元形状を推定するテンプレートベースの手法を導入し,その再構成メッシュを下流タスク,すなわち絶対長測定に適用する。
提案手法は, 3Dメッシュを忠実に再構築し, 変形した魚のデータセット上の長さ測定タスクにおいて, 最先端の精度を実現する。
関連論文リスト
- 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z) - Single-View 3D Object Reconstruction from Shape Priors in Memory [15.641803721287628]
単一視点3次元オブジェクト再構成のための既存の方法は、高品質な3次元形状を再構築するのに十分な情報を含んでいない。
本稿では,画像中の不足情報を補うために,形状先行を明示的に構成するMem3Dという新しい手法を提案する。
また,入力画像と高い関連性を有する正確な3次元形状の検索を支援するボクセル三重項損失関数を提案する。
論文 参考訳(メタデータ) (2020-03-08T03:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。