論文の概要: Compensating Spatiotemporally Inconsistent Observations for Online Dynamic 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.01235v1
- Date: Fri, 02 May 2025 12:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.018848
- Title: Compensating Spatiotemporally Inconsistent Observations for Online Dynamic 3D Gaussian Splatting
- Title(参考訳): オンライン動的3次元ガウス平滑化のための時空間不整合観測の補正
- Authors: Youngsik Yun, Jeongmin Bae, Hyunseung Son, Seoha Kim, Hahyun Lee, Gun Bang, Youngjung Uh,
- Abstract要約: 本稿では,リアルタイム録音におけるノイズなどの誤りがオンライン再構成における時間的不整合に影響を及ぼすことを示す。
本稿では,カメラでは避けられない時間的不整合を伴う観測から,オンライン再構成における時間的一貫性を高める手法を提案する。
- 参考スコア(独自算出の注目度): 9.592278104887036
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Online reconstruction of dynamic scenes is significant as it enables learning scenes from live-streaming video inputs, while existing offline dynamic reconstruction methods rely on recorded video inputs. However, previous online reconstruction approaches have primarily focused on efficiency and rendering quality, overlooking the temporal consistency of their results, which often contain noticeable artifacts in static regions. This paper identifies that errors such as noise in real-world recordings affect temporal inconsistency in online reconstruction. We propose a method that enhances temporal consistency in online reconstruction from observations with temporal inconsistency which is inevitable in cameras. We show that our method restores the ideal observation by subtracting the learned error. We demonstrate that applying our method to various baselines significantly enhances both temporal consistency and rendering quality across datasets. Code, video results, and checkpoints are available at https://bbangsik13.github.io/OR2.
- Abstract(参考訳): 動的シーンのオンライン再構成は、ライブストリーミングビデオ入力からのシーンの学習を可能にする一方で、既存のオフライン動的再構成手法は記録されたビデオ入力に依存しているため、重要である。
しかし、従来のオンライン再構築アプローチは主に効率性とレンダリング品質に重点を置いており、静的な領域でしばしば顕著な成果物を含む結果の時間的一貫性を見越している。
本稿では,リアルタイム録音におけるノイズなどの誤りがオンライン再構成における時間的不整合に影響を及ぼすことを示す。
本稿では,カメラでは避けられない時間的不整合を伴う観測から,オンライン再構成における時間的一貫性を高める手法を提案する。
本手法は,学習誤差を減らして理想的な観測を復元することを示す。
提案手法を様々なベースラインに適用することにより,データセット間の時間的一貫性とレンダリング品質が著しく向上することを示す。
コード、ビデオ結果、チェックポイントはhttps://bbangsik13.github.io/OR2.orgで公開されている。
関連論文リスト
- Large-scale visual SLAM for in-the-wild videos [28.58692815339531]
カジュアルビデオから3D再構成を改善するために,ロバストなパイプラインを導入する。
我々は近年の深部視覚計測法を基礎にしているが、いくつかの点で頑健性を高めている。
各種環境におけるオンラインビデオの大規模連続3Dモデルについて紹介する。
論文 参考訳(メタデータ) (2025-04-29T07:37:51Z) - Temporal-Consistent Video Restoration with Pre-trained Diffusion Models [51.47188802535954]
ビデオ復元(VR)は、劣化したビデオから高品質なビデオを復元することを目的としている。
事前訓練拡散モデル(DM)を用いた最近のゼロショットVR法は,逆拡散時の近似誤差と時間的整合性の欠如に悩まされている。
本稿では,DMのシード空間におけるビデオフレームを直接パラメータ化し,近似誤差を排除した新しいMAP(Posterior Maximum)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T03:41:56Z) - SplatVoxel: History-Aware Novel View Streaming without Temporal Training [29.759664150610362]
スパースビュー映像からの新たなビューストリーミングの問題について検討する。
既存のビュー合成手法は、時間的コヒーレンスと視覚的忠実さに苦慮している。
本稿では,ハイブリッド型スプラ・ボクセルフィードフォワードシーン再構築手法を提案する。
論文 参考訳(メタデータ) (2025-03-18T20:00:47Z) - Collaborative Feedback Discriminative Propagation for Video Super-Resolution [66.61201445650323]
ビデオ超解像法(VSR)の主な成功は、主に空間情報と時間情報を探索することに由来する。
不正確なアライメントは通常、重要なアーティファクトを備えたアライメント機能につながる。
伝搬モジュールは同じタイムステップ機能のみを前方または後方に伝播する。
論文 参考訳(メタデータ) (2024-04-06T22:08:20Z) - Toward Accurate and Temporally Consistent Video Restoration from Raw
Data [20.430231283171327]
連続的かつ高精度な空間伝搬による新しいVJDDフレームワークを提案する。
提案した損失は,不正確な流量推定による誤差蓄積問題を回避することができる。
復元精度,知覚品質,時間的整合性の観点から,VJDDの先行性能を示す実験を行った。
論文 参考訳(メタデータ) (2023-12-25T12:38:03Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Progressive Temporal Feature Alignment Network for Video Inpainting [51.26380898255555]
ビデオ畳み込みは、時間内「破損した地域」に可能な内容で埋めることを目指しています。
現在の方法は、注意、フローベースのワープ、あるいは3次元時間的畳み込みによってこの目標を達成する。
現在のフレームから抽出された特徴を、隣接するフレームから歪んだ特徴で段階的に強化する「プログレッシブ・テンポラリティ・アライメント・ネットワーク」を提案します。
論文 参考訳(メタデータ) (2021-04-08T04:50:33Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。