論文の概要: Online Adaptation for Consistent Mesh Reconstruction in the Wild
- arxiv url: http://arxiv.org/abs/2012.03196v1
- Date: Sun, 6 Dec 2020 07:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 08:02:35.550869
- Title: Online Adaptation for Consistent Mesh Reconstruction in the Wild
- Title(参考訳): 野生における一貫したメッシュ再構築のためのオンライン適応
- Authors: Xueting Li, Sifei Liu, Shalini De Mello, Kihwan Kim, Xiaolong Wang,
Ming-Hsuan Yang, Jan Kautz
- Abstract要約: 入ってくるテストビデオに適用する自己教師型オンライン適応問題として、ビデオベースの再構成を行う。
我々は,野生で捕獲された動物を含む非剛体物体のビデオから,時間的に一貫した信頼性の高い3D構造を復元できることを実証した。
- 参考スコア(独自算出の注目度): 147.22708151409765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an algorithm to reconstruct temporally consistent 3D
meshes of deformable object instances from videos in the wild. Without
requiring annotations of 3D mesh, 2D keypoints, or camera pose for each video
frame, we pose video-based reconstruction as a self-supervised online
adaptation problem applied to any incoming test video. We first learn a
category-specific 3D reconstruction model from a collection of single-view
images of the same category that jointly predicts the shape, texture, and
camera pose of an image. Then, at inference time, we adapt the model to a test
video over time using self-supervised regularization terms that exploit
temporal consistency of an object instance to enforce that all reconstructed
meshes share a common texture map, a base shape, as well as parts. We
demonstrate that our algorithm recovers temporally consistent and reliable 3D
structures from videos of non-rigid objects including those of animals captured
in the wild -- an extremely challenging task rarely addressed before.
- Abstract(参考訳): 本稿では,変形可能なオブジェクトの時間的一貫した3次元メッシュを野生のビデオから再構成するアルゴリズムを提案する。
ビデオフレーム毎に3Dメッシュ,2Dキーポイント,カメラポーズのアノテーションを必要とせずに,ビデオベースの再構成を,入ってくるテストビデオに適用する自己教師付きオンライン適応問題として行う。
まず,画像の形状,テクスチャ,カメラのポーズを共同で予測する同一カテゴリの単一視点画像の集合から,カテゴリ固有の3次元再構成モデルを学習する。
そして、推定時に、オブジェクトインスタンスの時間的一貫性を利用した自己教師あり正規化用語を用いて、時間とともにモデルをテストビデオに適用し、再構成されたメッシュが共通のテクスチャマップ、基本形状、および部品を共有することを強制する。
このアルゴリズムは、野生で捕獲された動物を含む非剛性物体のビデオから、時間的に一貫性があり、信頼性の高い3d構造を復元できることを実証する。
関連論文リスト
- Unsupervised Learning of Category-Level 3D Pose from Object-Centric Videos [15.532504015622159]
カテゴリーレベルの3Dポーズ推定は、コンピュータビジョンとロボット工学において基本的に重要な問題である。
カテゴリーレベルの3Dポーズを,カジュアルに撮られた対象中心の動画からのみ推定する学習の課題に取り組む。
論文 参考訳(メタデータ) (2024-07-05T09:43:05Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Video Autoencoder: self-supervised disentanglement of static 3D
structure and motion [60.58836145375273]
ビデオから3次元構造とカメラポーズの遠心分離表現を学習するために,ビデオオートエンコーダを提案する。
この表現は、新しいビュー合成、カメラポーズ推定、動きの追従によるビデオ生成など、様々なタスクに適用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:57:42Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Shape and Viewpoint without Keypoints [63.26977130704171]
本研究では,1枚の画像から3次元形状,ポーズ,テクスチャを復元する学習フレームワークを提案する。
我々は,3次元形状,マルチビュー,カメラ視点,キーポイントの監督なしに画像収集を訓練した。
我々は、最先端のカメラ予測結果を取得し、オブジェクト間の多様な形状やテクスチャを予測することを学べることを示す。
論文 参考訳(メタデータ) (2020-07-21T17:58:28Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。