論文の概要: High Fidelity 3D Reconstructions with Limited Physical Views
- arxiv url: http://arxiv.org/abs/2110.11599v1
- Date: Fri, 22 Oct 2021 05:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 13:16:49.393671
- Title: High Fidelity 3D Reconstructions with Limited Physical Views
- Title(参考訳): 高忠実度3次元再構成法
- Authors: Mosam Dabhi, Chaoyang Wang, Kunal Saluja, Laszlo Jeni, Ian Fasel,
Simon Lucey
- Abstract要約: マルチビュー三角測量は、既知のキャリブレーションと十分なビューを与えられた2次元対応から3次元再構成するための金の標準である。
本手法は, 限られた2-3個のカメラビューを用いて, 高価なマルチビューリグに匹敵する忠実度を達成できることを示す。
- 参考スコア(独自算出の注目度): 26.73567055808908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view triangulation is the gold standard for 3D reconstruction from 2D
correspondences given known calibration and sufficient views. However in
practice, expensive multi-view setups -- involving tens sometimes hundreds of
cameras -- are required in order to obtain the high fidelity 3D reconstructions
necessary for many modern applications. In this paper we present a novel
approach that leverages recent advances in 2D-3D lifting using neural shape
priors while also enforcing multi-view equivariance. We show how our method can
achieve comparable fidelity to expensive calibrated multi-view rigs using a
limited (2-3) number of uncalibrated camera views.
- Abstract(参考訳): マルチビュー三角測量は、既知のキャリブレーションと十分なビューを与えられた2次元対応から3次元再構成するための金の標準である。
しかし実際には、現代の多くのアプリケーションに必要な高忠実度な3d再構成を得るためには、数十台のカメラを含む高価なマルチビューセットアップが必要である。
本稿では,ニューラルネットワークを用いた2d-3dリフティングの最近の進歩を活かし,多視点等分散を実現する新しい手法を提案する。
本手法は,2~3個の非校正カメラビューを用いて,高価な校正マルチビューリグに匹敵する忠実度を達成できることを示す。
関連論文リスト
- DynOMo: Online Point Tracking by Dynamic Online Monocular Gaussian Reconstruction [65.46359561104867]
モノクラーカメラ入力からのオンライン2Dおよび3Dポイントトラッキングの課題を対象としている。
我々は3Dガウススプラッティングを利用して動的シーンをオンラインに再構築する。
我々は,オンラインのポイントトラッキングとリコンストラクションを推進し,様々な現実のシナリオに適用可能にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-03T17:58:03Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - UNeR3D: Versatile and Scalable 3D RGB Point Cloud Generation from 2D
Images in Unsupervised Reconstruction [2.7848140839111903]
UNeR3Dは、2Dビューのみから詳細な3D再構成を生成するための新しい標準を設定している。
私たちのモデルは、教師付きアプローチに関連するトレーニングコストを大幅に削減します。
UNeR3Dはシームレスな色遷移を保証し、視力を高める。
論文 参考訳(メタデータ) (2023-12-10T15:18:55Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。