論文の概要: 4DSloMo: 4D Reconstruction for High Speed Scene with Asynchronous Capture
- arxiv url: http://arxiv.org/abs/2507.05163v1
- Date: Mon, 07 Jul 2025 16:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.511566
- Title: 4DSloMo: 4D Reconstruction for High Speed Scene with Asynchronous Capture
- Title(参考訳): 4DSloMo:非同期キャプチャによる高速シーンの4次元再構成
- Authors: Yutian Chen, Shi Guo, Tianshuo Yang, Lihe Ding, Xiuyuan Yu, Jinwei Gu, Tianfan Xue,
- Abstract要約: 本稿では,低FPSカメラのみを用いた高速4D撮影システムを提案する。
カメラをグループ化してベースフレームレートを25FPSとすることで,高速度カメラを必要としない100-200FPSのフレームレートを実現する。
- 参考スコア(独自算出の注目度): 24.726556096560618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing fast-dynamic scenes from multi-view videos is crucial for high-speed motion analysis and realistic 4D reconstruction. However, the majority of 4D capture systems are limited to frame rates below 30 FPS (frames per second), and a direct 4D reconstruction of high-speed motion from low FPS input may lead to undesirable results. In this work, we propose a high-speed 4D capturing system only using low FPS cameras, through novel capturing and processing modules. On the capturing side, we propose an asynchronous capture scheme that increases the effective frame rate by staggering the start times of cameras. By grouping cameras and leveraging a base frame rate of 25 FPS, our method achieves an equivalent frame rate of 100-200 FPS without requiring specialized high-speed cameras. On processing side, we also propose a novel generative model to fix artifacts caused by 4D sparse-view reconstruction, as asynchrony reduces the number of viewpoints at each timestamp. Specifically, we propose to train a video-diffusion-based artifact-fix model for sparse 4D reconstruction, which refines missing details, maintains temporal consistency, and improves overall reconstruction quality. Experimental results demonstrate that our method significantly enhances high-speed 4D reconstruction compared to synchronous capture.
- Abstract(参考訳): 多視点映像からの高速動画像の再構成は、高速な動き解析と現実的な4D再構成に不可欠である。
しかし、4Dキャプチャシステムの大部分は30FPS未満のフレームレート(毎秒フレーム)に制限されており、低FPS入力による高速動作の直接4D再構成は望ましくない結果をもたらす可能性がある。
本研究では,低FPSカメラのみを用いた高速4D撮影システムを提案する。
キャプチャ側では,カメラの起動時間を延ばすことでフレームレートを効果的に向上する非同期キャプチャ方式を提案する。
カメラをグループ化してベースフレームレートを25FPSとすることで,高速度カメラを必要としない100-200FPSのフレームレートを実現する。
また,処理側では,4次元のスパースビュー再構成によるアーティファクトの修正のための新たな生成モデルも提案する。
具体的には,不足した詳細を洗練し,時間的整合性を維持し,全体の復元品質を向上させる,スパース4D再構成のためのビデオ拡散に基づくアーティファクトフィックスモデルをトレーニングすることを提案する。
実験により, 同期キャプチャに比べて高速4次元再構成が著しく向上することが確認された。
関連論文リスト
- 4D-LRM: Large Space-Time Reconstruction Model From and To Any View at Any Time [74.07107064085409]
4D-LRMは、制約のないビューとタイムスタンプから入力を受け取り、任意のビュータイムの組み合わせをレンダリングする最初の大規模4D再構成モデルである。
統合された時空表現を学習し、時間を通してポーズされた画像トークンからピクセルごとの4Dガウスプリミティブを直接予測する。
1つのA100 GPU上で1.5秒未満で、24フレームのシーケンスを1フォワードパスで再構築する。
論文 参考訳(メタデータ) (2025-06-23T17:57:47Z) - Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - Deblur4DGS: 4D Gaussian Splatting from Blurry Monocular Video [64.38566659338751]
Deblur4DGSという,ぼやけたモノクロビデオから高品質な4Dモデルを再構成するための,最初の4Dガウス分割フレームワークを提案する。
本稿では,多面的,多面的整合性,多面的,多面的,多面的な整合性を実現するために露光規則化を導入し,斬新な視点以外では,デブレア4DGSは,デブロアリング,フレーム合成,ビデオ安定化など,多面的な視点からぼやけた映像を改善するために応用できる。
論文 参考訳(メタデータ) (2024-12-09T12:02:11Z) - Efficient4D: Fast Dynamic 3D Object Generation from a Single-view Video [42.10482273572879]
本稿では,効率的な4Dオブジェクト生成フレームワークであるEfficient4Dを提案する。
異なるカメラビューの下で高品質な時空一貫性の画像を生成し、ラベル付きデータとして使用する。
合成ビデオと実ビデオの両方の実験によると、Efficient4Dのスピードは10倍に向上している。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - 4K4D: Real-Time 4D View Synthesis at 4K Resolution [86.6582179227016]
本稿では、4K解像度で動的3Dシーンを高忠実かつリアルタイムに見ることを目的とする。
ハードウェア化をサポートし,前例のないレンダリング速度を実現する4Dポイントクラウド表現を提案する。
私たちの表現は、1080p解像度のDNAレンダリングデータセットで400 FPS、4090 GPUで4K解像度のENeRF-Outdoorデータセットで80 FPSでレンダリングできます。
論文 参考訳(メタデータ) (2023-10-17T17:57:38Z) - An Asynchronous Linear Filter Architecture for Hybrid Event-Frame Cameras [9.69495347826584]
本稿では,HDRビデオ再構成と空間畳み込みのための非同期線形フィルタアーキテクチャを提案する。
提案したAKFパイプラインは、絶対強度誤差(69.4%削減)と画像類似度指数(平均35.5%改善)の両方において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-03T12:37:59Z) - NeRFPlayer: A Streamable Dynamic Scene Representation with Decomposed
Neural Radiance Fields [99.57774680640581]
本稿では、高速な再構成、コンパクトなモデリング、およびストリーム可能なレンダリングが可能な効率的なフレームワークを提案する。
本稿では, 時間特性に応じて4次元空間を分解することを提案する。4次元空間の点は, 静的, 変形, および新しい領域の3つのカテゴリに属する確率に関連付けられている。
論文 参考訳(メタデータ) (2022-10-28T07:11:05Z) - 4D Association Graph for Realtime Multi-person Motion Capture Using
Multiple Video Cameras [46.664422061537564]
本稿では,マルチビュー映像入力を用いた新しいリアルタイム多対人モーションキャプチャーアルゴリズムを提案する。
ビューパース、クロスビューマッチング、時間トラッキングを単一の最適化フレームワークに統合します。
提案手法はノイズ検出に頑健であり,高品質なオンラインポーズ復元品質を実現する。
論文 参考訳(メタデータ) (2020-02-28T09:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。