論文の概要: LivePose: Online 3D Reconstruction from Monocular Video with Dynamic
Camera Poses
- arxiv url: http://arxiv.org/abs/2304.00054v1
- Date: Fri, 31 Mar 2023 18:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:58:35.489574
- Title: LivePose: Online 3D Reconstruction from Monocular Video with Dynamic
Camera Poses
- Title(参考訳): LivePose:ダイナミックカメラでモノクロ映像からオンライン3Dレコンストラクション
- Authors: Noah Stier, Baptiste Angles, Liang Yang, Yajie Yan, Alex Colburn, Ming
Chuang
- Abstract要約: ScanNet上で動作するSLAMシステムからの動的ポーズを含むLivePoseというデータセットを導入する。
動的配置にそれぞれを適応させるために、分解に基づくフレームワークを適用します。
さらに,古いシーンコンテンツを削除することを学習する新しい非線形分解モジュールを提案する。
- 参考スコア(独自算出の注目度): 10.058251621910232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense 3D reconstruction from RGB images traditionally assumes static camera
pose estimates. This assumption has endured, even as recent works have
increasingly focused on real-time methods for mobile devices. However, the
assumption of one pose per image does not hold for online execution: poses from
real-time SLAM are dynamic and may be updated following events such as bundle
adjustment and loop closure. This has been addressed in the RGB-D setting, by
de-integrating past views and re-integrating them with updated poses, but it
remains largely untreated in the RGB-only setting. We formalize this problem to
define the new task of online reconstruction from dynamically-posed images. To
support further research, we introduce a dataset called LivePose containing the
dynamic poses from a SLAM system running on ScanNet. We select three recent
reconstruction systems and apply a framework based on de-integration to adapt
each one to the dynamic-pose setting. In addition, we propose a novel,
non-linear de-integration module that learns to remove stale scene content. We
show that responding to pose updates is critical for high-quality
reconstruction, and that our de-integration framework is an effective solution.
- Abstract(参考訳): RGB画像からのDense 3D再構成は、伝統的に静的カメラのポーズ推定を前提としている。
この仮定は、最近の研究がモバイルデバイスのリアルタイム手法にますます注力しているにもかかわらず、存続している。
リアルタイムSLAMからのポーズは動的であり、バンドル調整やループ閉鎖といったイベントに続いて更新される可能性がある。
これは、過去のビューを非統合し、更新されたポーズと再統合することで、RGB-D設定で対処されてきたが、RGBのみの設定では、ほとんど未処理のままである。
我々はこの問題を形式化し、動的に配置された画像からオンライン再構成を行う新しいタスクを定義する。
さらなる研究を支援するために,ScanNet上で動作するSLAMシステムからの動的ポーズを含むLivePoseというデータセットを紹介した。
我々は,最近の3つの再構成システムを選択し,動的配置に適合させるために,分解に基づくフレームワークを適用した。
さらに,古いシーンのコンテンツを削除することを学ぶ,新しい非線形デインテグレーションモジュールを提案する。
ポーズ更新に対する応答は高品質な再構築に不可欠であり、分解フレームワークは効果的なソリューションであることを示す。
関連論文リスト
- DynOMo: Online Point Tracking by Dynamic Online Monocular Gaussian Reconstruction [65.46359561104867]
モノクラーカメラ入力からのオンライン2Dおよび3Dポイントトラッキングの課題を対象としている。
我々は3Dガウススプラッティングを利用して動的シーンをオンラインに再構築する。
我々は,オンラインのポイントトラッキングとリコンストラクションを推進し,様々な現実のシナリオに適用可能にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-03T17:58:03Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Black-Box Test-Time Shape REFINEment for Single View 3D Reconstruction [57.805334118057665]
文献中の任意のブラックボックス方式のパイプラインに容易に組み込むことができる後処理メッシュ改善ステップであるREFINEを提案する。
テスト時には、REFINEはメッシュ毎のネットワークインスタンスを最適化し、メッシュと所定のオブジェクトビュー間の一貫性を促進する。
論文 参考訳(メタデータ) (2021-08-23T03:28:47Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z) - Reconstruct, Rasterize and Backprop: Dense shape and pose estimation
from a single image [14.9851111159799]
本稿では,1枚の画像から6-DoFポーズとともに高密度物体再構成を行うシステムを提案する。
我々は、カメラフレームの3D再構成でループを閉じるために、差別化可能なレンダリング(特にロボティクス)の最近の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T20:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。