論文の概要: Link to the Past: Temporal Propagation for Fast 3D Human Reconstruction from Monocular Video
- arxiv url: http://arxiv.org/abs/2505.07333v1
- Date: Mon, 12 May 2025 08:16:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.30891
- Title: Link to the Past: Temporal Propagation for Fast 3D Human Reconstruction from Monocular Video
- Title(参考訳): 過去へのリンク:モノクロ映像からの高速3次元人体再構成のための時間的伝播
- Authors: Matthew Marchellus, Nadhira Noor, In Kyu Park,
- Abstract要約: 本稿では,人間の外観の時間的コヒーレンシーを利用して冗長な計算を行う新しい方法であるTemPoFast3Dを提案する。
我々のアプローチは「プラグアンドプレイ」ソリューションであり、連続的なビデオストリームを処理するためにピクセル配列の再構成ネットワークを変換します。
大規模な実験では、TemPoFast3Dが標準メトリクス全体にわたって最先端のメソッドと一致しているか、あるいは超えている。
- 参考スコア(独自算出の注目度): 3.065513003860787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast 3D clothed human reconstruction from monocular video remains a significant challenge in computer vision, particularly in balancing computational efficiency with reconstruction quality. Current approaches are either focused on static image reconstruction but too computationally intensive, or achieve high quality through per-video optimization that requires minutes to hours of processing, making them unsuitable for real-time applications. To this end, we present TemPoFast3D, a novel method that leverages temporal coherency of human appearance to reduce redundant computation while maintaining reconstruction quality. Our approach is a "plug-and play" solution that uniquely transforms pixel-aligned reconstruction networks to handle continuous video streams by maintaining and refining a canonical appearance representation through efficient coordinate mapping. Extensive experiments demonstrate that TemPoFast3D matches or exceeds state-of-the-art methods across standard metrics while providing high-quality textured reconstruction across diverse pose and appearance, with a maximum speed of 12 FPS.
- Abstract(参考訳): モノクルビデオからの高速な3D合成人間の再構築は、コンピュータビジョンにおいて、特に計算効率と再現品質のバランスをとる上で重要な課題である。
現在のアプローチでは、静的な画像再構成に重点を置いているが、計算集約的すぎるか、ビデオ毎の最適化によって、数分から数時間の処理を必要とする高品質な処理を実現しているため、リアルタイムアプリケーションには適さない。
そこで本研究では,人間の外観の時間的コヒーレンシーを活用して,復元品質を維持しながら冗長な計算を低減させる新しい手法であるTemPoFast3Dを提案する。
当社のアプローチは「プラグ・アンド・プレイ」ソリューションであり、効率的な座標マッピングによる正規表現の維持と精細化により、連続的なビデオストリームを処理するために画素アラインの再構成ネットワークを一意に変換する。
大規模な実験により、TemPoFast3Dは標準的な測定基準をまたいだ最先端の手法と一致または超え、さまざまなポーズや外観で高品質なテクスチャ化された再構築を提供し、最大速度は12FPSであることが示された。
関連論文リスト
- Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - VideoLifter: Lifting Videos to 3D with Fast Hierarchical Stereo Alignment [63.21396416244634]
VideoLifterは、ローカルからグローバルへの戦略を断片的に活用する、新しいビデオから3Dパイプラインである。
再建プロセスを大幅に加速し、訓練時間を82%以上削減し、現在のSOTA法よりも視覚的品質を向上した。
論文 参考訳(メタデータ) (2025-01-03T18:52:36Z) - RAVEN: Rethinking Adversarial Video Generation with Efficient Tri-plane Networks [93.18404922542702]
本稿では,長期的空間的および時間的依存関係に対処する新しいビデオ生成モデルを提案する。
提案手法は,3次元認識型生成フレームワークにインスパイアされた,明示的で単純化された3次元平面のハイブリッド表現を取り入れたものである。
我々のモデルは高精細度ビデオクリップを解像度256時間256$ピクセルで合成し、フレームレート30fpsで5ドル以上まで持続する。
論文 参考訳(メタデータ) (2024-01-11T16:48:44Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Temporal Consistency Loss for High Resolution Textured and Clothed
3DHuman Reconstruction from Monocular Video [35.42021156572568]
本研究では,単眼映像から着衣者の時間的整合性3次元再構成を学習する新しい手法を提案する。
提案手法は,モノクロ映像からの3次元再構成とテクスチャ予測の時間的一貫性と精度を向上させる。
論文 参考訳(メタデータ) (2021-04-19T13:04:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。