論文の概要: Time-Archival Camera Virtualization for Sports and Visual Performances
- arxiv url: http://arxiv.org/abs/2602.15181v1
- Date: Mon, 16 Feb 2026 20:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.901244
- Title: Time-Archival Camera Virtualization for Sports and Visual Performances
- Title(参考訳): スポーツと視覚パフォーマンスのためのタイムアーキバルカメラ仮想化
- Authors: Yunxiao Zhang, William Stone, Suryansh Kumar,
- Abstract要約: カメラ仮想化は、視覚エンターテイメント、ライブパフォーマンス、スポーツ放送の変革的な可能性を持っている。
動的シーンに対する3次元ガウススティング(3DGS)に基づく最近の手法は、リアルタイムなビュー合成結果をもたらす可能性がある。
本稿では,カメラ仮想化のためのニューラルボリュームレンダリングの定式化と,効率的な時間変換機能について再考する。
- 参考スコア(独自算出の注目度): 6.771498989384425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera virtualization -- an emerging solution to novel view synthesis -- holds transformative potential for visual entertainment, live performances, and sports broadcasting by enabling the generation of photorealistic images from novel viewpoints using images from a limited set of calibrated multiple static physical cameras. Despite recent advances, achieving spatially and temporally coherent and photorealistic rendering of dynamic scenes with efficient time-archival capabilities, particularly in fast-paced sports and stage performances, remains challenging for existing approaches. Recent methods based on 3D Gaussian Splatting (3DGS) for dynamic scenes could offer real-time view-synthesis results. Yet, they are hindered by their dependence on accurate 3D point clouds from the structure-from-motion method and their inability to handle large, non-rigid, rapid motions of different subjects (e.g., flips, jumps, articulations, sudden player-to-player transitions). Moreover, independent motions of multiple subjects can break the Gaussian-tracking assumptions commonly used in 4DGS, ST-GS, and other dynamic splatting variants. This paper advocates reconsidering a neural volume rendering formulation for camera virtualization and efficient time-archival capabilities, making it useful for sports broadcasting and related applications. By modeling a dynamic scene as rigid transformations across multiple synchronized camera views at a given time, our method performs neural representation learning, providing enhanced visual rendering quality at test time. A key contribution of our approach is its support for time-archival, i.e., users can revisit any past temporal instance of a dynamic scene and can perform novel view synthesis, enabling retrospective rendering for replay, analysis, and archival of live events, a functionality absent in existing neural rendering approaches and novel view synthesis...
- Abstract(参考訳): カメラ仮想化は、視覚エンターテイメント、ライブパフォーマンス、スポーツブロードキャスティングの変革的な可能性を持ち、キャリブレーションされた複数の静止カメラの限られたセットの画像を使用して、新しい視点からフォトリアリスティックな画像を生成することができる。
近年の進歩にもかかわらず、特に速いペースのスポーツやステージパフォーマンスにおいて、動的シーンの空間的・時間的コヒーレントかつフォトリアリスティックなレンダリングを実現することは、既存のアプローチでは依然として困難である。
動的シーンに対する3次元ガウススティング(3DGS)に基づく最近の手法は、リアルタイムなビュー合成結果をもたらす可能性がある。
しかし、それらは、構造移動法から正確な3D点雲への依存と、異なる対象(例えば、フリップ、ジャンプ、調律、プレーヤーからプレイヤーへの突然の遷移)の大きな非剛体的、迅速な動きを扱えないことによって妨げられている。
さらに、複数の被験者の独立運動は、4DGS、ST-GS、その他の動的スプラッティング変種でよく用いられるガウス追跡仮定を破ることができる。
本稿では,カメラ仮想化のためのニューラルボリュームレンダリングの定式化と時間的効率性を再考し,スポーツ放送や関連アプリケーションに有用であることを示す。
動的シーンを複数の同期カメラビューに対して所定のタイミングで剛性変換としてモデル化することにより、ニューラル表現学習を行い、テスト時の視覚的レンダリング品質を向上させる。
われわれのアプローチの重要な貢献は、時間的アーキバル(time-archival)のサポートである。つまり、ユーザーは動的シーンの過去の時間的インスタンスを再考でき、新しいビュー合成を実行でき、リプレイ、分析、ライブイベントのリフレクションレンダリングを可能にする。既存のニューラルレンダリングアプローチに欠けている機能と、新しいビュー合成は、..
関連論文リスト
- DePT3R: Joint Dense Point Tracking and 3D Reconstruction of Dynamic Scenes in a Single Forward Pass [2.0487171253259104]
DePT3Rは、複数の画像から高密度な点追跡と動的シーンの3次元再構成を同時に行う新しいフレームワークである。
DePT3Rを動的シーンを含むいくつかの困難なベンチマークで検証し、高い性能とメモリ効率の大幅な改善を示す。
論文 参考訳(メタデータ) (2025-12-15T09:21:28Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - Humans as a Calibration Pattern: Dynamic 3D Scene Reconstruction from Unsynchronized and Uncalibrated Videos [12.19207713016543]
動的3次元神経場再構成に関する最近の研究は、ポーズが知られているマルチビュービデオからの入力を前提としている。
アンバロライズされたセットアップは、ダイナミックなダイナミックなビデオが人間の動きをキャプチャすることを示す。
論文 参考訳(メタデータ) (2024-12-26T07:04:20Z) - DynMF: Neural Motion Factorization for Real-time Dynamic View Synthesis with 3D Gaussian Splatting [31.75611852583603]
動的シーンの点当たりの運動は、明示的あるいは学習的な軌跡の小さなセットに分解することができると論じる。
我々の表現は解釈可能であり、効率的であり、複雑な動的シーンの動きのリアルタイムなビュー合成を提供するのに十分な表現力を持っている。
論文 参考訳(メタデータ) (2023-11-30T18:59:11Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - NeRFPlayer: A Streamable Dynamic Scene Representation with Decomposed
Neural Radiance Fields [99.57774680640581]
本稿では、高速な再構成、コンパクトなモデリング、およびストリーム可能なレンダリングが可能な効率的なフレームワークを提案する。
本稿では, 時間特性に応じて4次元空間を分解することを提案する。4次元空間の点は, 静的, 変形, および新しい領域の3つのカテゴリに属する確率に関連付けられている。
論文 参考訳(メタデータ) (2022-10-28T07:11:05Z) - Temporal-MPI: Enabling Multi-Plane Images for Dynamic Scene Modelling
via Temporal Basis Learning [6.952039070065292]
ビデオ全体を通してリッチな3Dおよび動的変動情報をコンパクトな時間的ベースとしてエンコードできる新しいテンポラルMPI表現を提案する。
提案するTemporal-MPIフレームワークは,従来の動的シーンモデリングフレームワークと比較して最大3000倍高速な,0.002秒のタイムスタンスMPIを生成することができる。
論文 参考訳(メタデータ) (2021-11-20T07:34:28Z) - Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes [70.76742458931935]
本稿では,動的シーンを外観・幾何学・3次元シーン動作の時間変化連続関数としてモデル化する新しい表現を提案する。
私たちの表現は、観測された入力ビューに適合するようにニューラルネットワークを介して最適化されます。
我々の表現は、細い構造、ビュー依存効果、自然な動きの度合いなどの複雑な動的シーンに利用できることを示す。
論文 参考訳(メタデータ) (2020-11-26T01:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。