論文の概要: PAS3R: Pose-Adaptive Streaming 3D Reconstruction for Long Video Sequences
- arxiv url: http://arxiv.org/abs/2603.21436v1
- Date: Sun, 22 Mar 2026 22:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-24 19:11:39.419426
- Title: PAS3R: Pose-Adaptive Streaming 3D Reconstruction for Long Video Sequences
- Title(参考訳): PAS3R:長編ビデオの3D再構成
- Authors: Lanbo Xu, Liang Guo, Caigui Jiang, Cheng Wang,
- Abstract要約: PAS3Rはポーズ適応型ストリーミング再構成フレームワークで、カメラの動きやシーン構造に応じて動的に状態更新を変調する。
PAS3Rは、長いビデオシーケンスにおける軌道精度、深さ推定、点雲再構成の精度を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 6.455635287305678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online monocular 3D reconstruction enables dense scene recovery from streaming video but remains fundamentally limited by the stability-adaptation dilemma: the reconstruction model must rapidly incorporate novel viewpoints while preserving previously accumulated scene structure. Existing streaming approaches rely on uniform or attention-based update mechanisms that often fail to account for abrupt viewpoint transitions, leading to trajectory drift and geometric inconsistencies over long sequences. We introduce PAS3R, a pose-adaptive streaming reconstruction framework that dynamically modulates state updates according to camera motion and scene structure. Our key insight is that frames contributing significant geometric novelty should exert stronger influence on the reconstruction state, while frames with minor viewpoint variation should prioritize preserving historical context. PAS3R operationalizes this principle through a motion-aware update mechanism that jointly leverages inter-frame pose variation and image frequency cues to estimate frame importance. To further stabilize long-horizon reconstruction, we introduce trajectory-consistent training objectives that incorporate relative pose constraints and acceleration regularization. A lightweight online stabilization module further suppresses high-frequency trajectory jitter and geometric artifacts without increasing memory consumption. Extensive experiments across multiple benchmarks demonstrate that PAS3R significantly improves trajectory accuracy, depth estimation, and point cloud reconstruction quality in long video sequences while maintaining competitive performance on shorter sequences.
- Abstract(参考訳): オンラインモノクル3次元再構成は,ストリーミング映像から密集したシーンの復元を可能にするが,安定性適応ジレンマにより基本的に制限されている。
既存のストリーミングアプローチは、一様または注目に基づく更新機構に依存しており、しばしば突然の視点遷移を考慮できないため、長いシーケンスに対する軌道のドリフトと幾何学的不整合が生じる。
PAS3Rは、カメラの動きやシーン構造に応じて動的に状態更新を変調する、ポーズ適応型ストリーミング再構成フレームワークである。
我々の重要な洞察は、重要な幾何学的ノベルティに寄与するフレームは、復元状態に強い影響を与え、一方、小さな視点の変化を持つフレームは、歴史的文脈の保存を優先すべきであるということである。
PAS3Rはこの原理を、フレーム間ポーズの変動と画像周波数キューを併用してフレームの重要度を推定する動き認識更新機構を通じて運用する。
より安定させるために,相対的なポーズ制約と加速度正則化を含む軌道に一貫性のある訓練目標を導入する。
軽量オンライン安定化モジュールは、メモリ消費を増大させることなく、高周波軌道ジッタおよび幾何学的アーティファクトをさらに抑制する。
複数のベンチマークでの大規模な実験により、PAS3Rは短いシーケンスでの競合性能を維持しながら、長いビデオシーケンスにおける軌道精度、深さ推定、点雲再構成品質を著しく改善することが示された。
関連論文リスト
- SSR: A Training-Free Approach for Streaming 3D Reconstruction [53.19807901585702]
自己表現型シーケンス規則化(Self Expressive Sequence Regularization、SSR)は、推論中にグラスマン列の正則性を強制するプラグアンドプレイ演算子である。
本研究では,SSRが連続的にドリフトを低減し,複数のストリーミング3D再構成タスクにおける再構成品質を向上させることを示す。
論文 参考訳(メタデータ) (2026-03-16T02:55:14Z) - OnlineX: Unified Online 3D Reconstruction and Understanding with Active-to-Stable State Evolution [34.8105632078785]
フィードフォワードフレームワークであるOnlineXを導入し、ストリーミング画像のみを用いて3次元の視覚的外観と言語フィールドをオンライン的に再構築する。
我々のフレームワークは、メモリ状態を専用のアクティブな状態と永続的な安定な状態に分離し、その後、前者からの情報を結合して後者に融合させ、忠実性と安定性の両方を達成する。
論文 参考訳(メタデータ) (2026-03-02T17:52:02Z) - Towards Geometry-Aware and Motion-Guided Video Human Mesh Recovery [60.51998732898099]
HMRMambaは3Dヒューマンメッシュリカバリのための新しいパラダイムである。
構造状態空間モデル(Structured State Space Models)をその効率性と長距離モデリングに利用した先駆者である。
まず、新しいデュアルスキャンのMambaアーキテクチャを特徴とするGeometry-Aware Lifting Moduleについて述べる。
論文 参考訳(メタデータ) (2026-01-29T08:05:02Z) - STCDiT: Spatio-Temporally Consistent Diffusion Transformer for High-Quality Video Super-Resolution [60.06664986365803]
我々は,事前学習したビデオ拡散モデルに基づいて構築されたビデオ超解像フレームワークSTCDiTを提案する。
複雑なカメラの動きであっても、構造的に忠実で時間的に安定した動画を劣化した入力から復元することを目的としている。
論文 参考訳(メタデータ) (2025-11-24T05:37:23Z) - ReCon-GS: Continuum-Preserved Gaussian Streaming for Fast and Compact Reconstruction of Dynamic Scenes [41.108974064267436]
ReCon-GSは、高忠実なオンライン動的シーン再構築とリアルタイムレンダリングを可能にするストレージ対応フレームワークである。
本稿では,ReCon-GSがトレーニング効率を約15%向上し,FVV合成品質が向上することを示す。
同等のレンダリング品質では、ReCon-GSは最先端の方法と比較して、メモリ要求を50%以上削減する。
論文 参考訳(メタデータ) (2025-09-29T06:23:47Z) - DiTVR: Zero-Shot Diffusion Transformer for Video Restoration [48.97196894658511]
DiTVRはゼロショットビデオ復元フレームワークで、拡散トランスフォーマーと軌跡を意識した注意と流れ一貫したサンプルを結合する。
我々の注意機構は、光流路に沿ってトークンを整列させ、特に時間力学に最も敏感な重要な層に重点を置いている。
フローガイドされたサンプリング装置は、低周波帯域にのみデータの一貫性を注入し、キャッシュを加速させながら高周波事前保存を行う。
論文 参考訳(メタデータ) (2025-08-11T09:54:45Z) - GaVS: 3D-Grounded Video Stabilization via Temporally-Consistent Local Reconstruction and Rendering [54.489285024494855]
ビデオの安定化は、元のユーザの動きの意図を保ちながら、望ましくないシャキネスを除去するので、ビデオ処理に欠かせない。
既存のアプローチは、運用するドメインによって、ユーザエクスペリエンスを低下させるいくつかの問題に悩まされます。
ビデオの安定化を時間的に一貫性のある局所的再構成とレンダリングのパラダイムとして再構成する,新しい3Dグラウンドアプローチである textbfGaVS を紹介する。
論文 参考訳(メタデータ) (2025-06-30T15:24:27Z) - VEIGAR: View-consistent Explicit Inpainting and Geometry Alignment for 3D object Removal [2.8954284913103367]
新しいビュー合成(NVS)と3D生成は編集タスクを大幅に改善した。
生成プロセス全体を通して横断的な一貫性を維持するために、メソッドは通常、デュアルストラテジーフレームワークを使用してこの問題に対処する。
VEIGARは,初期再構成フェーズに依存することなく,既存の手法より優れた計算効率の高いフレームワークである。
論文 参考訳(メタデータ) (2025-06-13T11:31:44Z) - Spatiotemporal Bundle Adjustment for Dynamic 3D Human Reconstruction in
the Wild [49.672487902268706]
本稿では,カメラの時間的アライメントと3次元点三角測量を共同で推定する枠組みを提案する。
複数の無同期・無同期ビデオカメラで捉えたイベントにおいて、人間の身体の3次元運動軌跡を再構成する。
論文 参考訳(メタデータ) (2020-07-24T23:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。