論文の概要: DOVE: Learning Deformable 3D Objects by Watching Videos
- arxiv url: http://arxiv.org/abs/2107.10844v1
- Date: Thu, 22 Jul 2021 17:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 13:47:58.674233
- Title: DOVE: Learning Deformable 3D Objects by Watching Videos
- Title(参考訳): ビデオで変形可能な3Dオブジェクトを学習するDOVE
- Authors: Shangzhe Wu, Tomas Jakab, Christian Rupprecht, Andrea Vedaldi
- Abstract要約: 本研究では,鳥の単一2次元画像から3次元標準形状,変形,視点,テクスチャの予測を学習するDOVEを提案する。
本手法は時間的に一貫した3次元形状と変形を再構成し,任意の視点から鳥をアニメーション化し再レンダリングする。
- 参考スコア(独自算出の注目度): 89.43105063468077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning deformable 3D objects from 2D images is an extremely ill-posed
problem. Existing methods rely on explicit supervision to establish multi-view
correspondences, such as template shape models and keypoint annotations, which
restricts their applicability on objects "in the wild". In this paper, we
propose to use monocular videos, which naturally provide correspondences across
time, allowing us to learn 3D shapes of deformable object categories without
explicit keypoints or template shapes. Specifically, we present DOVE, which
learns to predict 3D canonical shape, deformation, viewpoint and texture from a
single 2D image of a bird, given a bird video collection as well as
automatically obtained silhouettes and optical flows as training data. Our
method reconstructs temporally consistent 3D shape and deformation, which
allows us to animate and re-render the bird from arbitrary viewpoints from a
single image.
- Abstract(参考訳): 2D画像から変形可能な3Dオブジェクトを学習することは、非常に不適切な問題である。
既存の手法は、テンプレート形状モデルやキーポイントアノテーションのようなマルチビュー対応を確立するための明示的な監督に依存しており、"野生の"オブジェクトへの適用性を制限している。
本稿では,時間にまたがる対応を自然に提供し,明示的なキーポイントやテンプレート形状を使わずに変形可能な物体カテゴリの3次元形状を学習できる単眼映像の利用を提案する。
具体的には,鳥の1つの2次元画像から3次元の正準形状,変形,視点,テクスチャを予測し,鳥のビデオコレクションに加え,自動的に得られるシルエットや光学フローをトレーニングデータとして提供する。
本手法は時間的に一貫した3次元形状と変形を再構成し,一画像から任意の視点から鳥をアニメーションし再レンダリングする。
関連論文リスト
- Ponymation: Learning Articulated 3D Animal Motions from Unlabeled Online Videos [47.97168047776216]
そこで,本研究では,生の未表示オンラインビデオから3次元動物運動の合成モデルを学習するための新しい手法を提案する。
我々のモデルは、自己教師付き画像の特徴から抽出した意味的対応を利用して、ラベルなしのウェブビデオクリップの集合から純粋に学習する。
論文 参考訳(メタデータ) (2023-12-21T06:44:18Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Multi-Category Mesh Reconstruction From Image Collections [90.24365811344987]
本稿では, 一連の変形可能な3次元モデルとインスタンス固有の変形, ポーズ, テクスチャのセットを組み合わせた, オブジェクトのテクスチャメッシュを推定する手法を提案する。
本手法は,前景マスクと粗いカメラポーズのみを監督として,複数の対象カテゴリの画像を用いて訓練する。
実験により,提案フレームワークは異なる対象カテゴリを区別し,教師なしの方法でカテゴリ固有の形状を学習できることが示唆された。
論文 参考訳(メタデータ) (2021-10-21T16:32:31Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - Unsupervised object-centric video generation and decomposition in 3D [36.08064849807464]
本研究では,複数の3Dオブジェクトと3D背景を持つシーンを移動しながら映像を映像としてモデル化することを提案する。
我々のモデルは、監督なしに単眼ビデオから訓練されるが、複数の動く物体を含むコヒーレントな3Dシーンを生成することを学ぶ。
論文 参考訳(メタデータ) (2020-07-07T18:01:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。