論文の概要: Mono-STAR: Mono-camera Scene-level Tracking and Reconstruction
- arxiv url: http://arxiv.org/abs/2301.13244v1
- Date: Mon, 30 Jan 2023 19:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:45:32.776394
- Title: Mono-STAR: Mono-camera Scene-level Tracking and Reconstruction
- Title(参考訳): Mono-STAR:モノカメラのシーンレベルの追跡と再構成
- Authors: Haonan Chang, Dhruv Metha Ramesh, Shijie Geng, Yuqiu Gan, Abdeslam
Boularias
- Abstract要約: 我々は,意味融合,高速モーショントラッキング,非剛性物体の変形,トポロジ的変化を同時にサポートする最初のリアルタイム3次元再構成システムであるMono-STARを提案する。
- 参考スコア(独自算出の注目度): 13.329040492332988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Mono-STAR, the first real-time 3D reconstruction system that
simultaneously supports semantic fusion, fast motion tracking, non-rigid object
deformation, and topological change under a unified framework. The proposed
system solves a new optimization problem incorporating optical-flow-based 2D
constraints to deal with fast motion and a novel semantic-aware deformation
graph (SAD-graph) for handling topology change. We test the proposed system
under various challenging scenes and demonstrate that it significantly
outperforms existing state-of-the-art methods.
- Abstract(参考訳): 我々は,意味融合,高速モーショントラッキング,非剛性物体の変形,トポロジ的変化を同時にサポートする,初めてのリアルタイム3次元再構成システムであるMono-STARを提案する。
提案システムでは,高速動作に対応するための光フローベース2D制約とトポロジ変化を扱うための新しい意味認識変形グラフ(SADグラフ)を組み合わせた新しい最適化問題を解く。
提案システムを様々な課題場面でテストし,既存の最先端手法を著しく上回っていることを示す。
関連論文リスト
- MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion [13.69678622755871]
本稿では,自律型宇宙ロボットのためのスタンドアロンの単眼視覚的同時局在マッピング(vSLAM)パイプラインを提案する。
提案手法は, 宇宙船の点検軌道における単分子エージェントを頑健に初期化するために, 構造を小型運動から拡張する。
本手法の有効性を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-09-24T21:33:14Z) - Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - Non-rigid Structure-from-Motion: Temporally-smooth Procrustean Alignment and Spatially-variant Deformation Modeling [34.606331252248886]
非剛性構造移動(NRSfM)の研究が盛んに行われ、大きな進展が見られた。
広範に現実世界のアプリケーションを妨げる重要な課題はまだ残っている。
本稿では,空間時間モデルの観点から,上記の課題を解決することを提案する。
論文 参考訳(メタデータ) (2024-05-07T13:33:50Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。