論文の概要: Splannequin: Freezing Monocular Mannequin-Challenge Footage with Dual-Detection Splatting
- arxiv url: http://arxiv.org/abs/2512.05113v2
- Date: Mon, 08 Dec 2025 08:11:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 15:54:52.377516
- Title: Splannequin: Freezing Monocular Mannequin-Challenge Footage with Dual-Detection Splatting
- Title(参考訳): Splannequin: デュアル・ディテクト・スプレイティングによる単眼マニクインチャレンジフットージの凍結
- Authors: Hao-Jen Chien, Yi-Chuan Huang, Chung-Ho Wu, Wei-Lun Chao, Yu-Lun Liu,
- Abstract要約: モノクロのMannequin-Challenge(MC)ビデオから高忠実度凍結した3Dシーンを作成します。
私たちのゴールは、動きをモデリングするのではなく、微妙なダイナミクスを保ちながら凍ったシーンを作ることです。
提案手法は,単純な損失項によって既存の動的ガウスパイプラインに統合され,アーキテクチャ上の変更を必要とせず,推論オーバーヘッドがゼロになる。
- 参考スコア(独自算出の注目度): 28.641196407703315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthesizing high-fidelity frozen 3D scenes from monocular Mannequin-Challenge (MC) videos is a unique problem distinct from standard dynamic scene reconstruction. Instead of focusing on modeling motion, our goal is to create a frozen scene while strategically preserving subtle dynamics to enable user-controlled instant selection. To achieve this, we introduce a novel application of dynamic Gaussian splatting: the scene is modeled dynamically, which retains nearby temporal variation, and a static scene is rendered by fixing the model's time parameter. However, under this usage, monocular capture with sparse temporal supervision introduces artifacts like ghosting and blur for Gaussians that become unobserved or occluded at weakly supervised timestamps. We propose Splannequin, an architecture-agnostic regularization that detects two states of Gaussian primitives, hidden and defective, and applies temporal anchoring. Under predominantly forward camera motion, hidden states are anchored to their recent well-observed past states, while defective states are anchored to future states with stronger supervision. Our method integrates into existing dynamic Gaussian pipelines via simple loss terms, requires no architectural changes, and adds zero inference overhead. This results in markedly improved visual quality, enabling high-fidelity, user-selectable frozen-time renderings, validated by a 96% user preference. Project page: https://chien90190.github.io/splannequin/
- Abstract(参考訳): モノクラー・マネキン・シャレンジ(MC)ビデオから高忠実度凍結した3Dシーンを合成することは、標準的なダイナミックシーンの再構築とは異なるユニークな問題である。
動作をモデル化する代わりに、ユーザ制御のインスタントセレクションを可能にするために、戦略的に微妙なダイナミクスを保ちながら、凍結シーンを作ることを目標としています。
これを実現するために,動的ガウススプラッティングの新たな適用法を提案する。シーンは動的にモデル化され,近くの時間変動を保ち,静的なシーンはモデルの時間パラメータを固定することによって描画される。
しかし、この使用下では、緩やかな時間的監督による単眼的な捕獲は、弱い監督されたタイムスタンプで観測されない、あるいは隠蔽されるガウスのゴーストやぼやけのような人工物を導入している。
Splannequinはアーキテクチャに依存しない正規化であり、ガウス原始体の2つの状態を検出し、隠れて欠陥があり、時間的アンカーを適用する。
主に前方カメラの動きの下では、隠された状態は近年保存状態のよい過去の状態に固定され、欠陥のある状態はより強い監督下で将来の状態に固定されている。
提案手法は,単純な損失項によって既存の動的ガウスパイプラインに統合され,アーキテクチャ上の変更を必要とせず,推論オーバーヘッドがゼロになる。
その結果、視覚的品質が著しく向上し、高忠実でユーザ選択可能なフリーズタイムレンダリングが可能となり、96%のユーザの好みで検証された。
プロジェクトページ: https://chien90190.github.io/splannequin/
関連論文リスト
- VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - GaVS: 3D-Grounded Video Stabilization via Temporally-Consistent Local Reconstruction and Rendering [54.489285024494855]
ビデオの安定化は、元のユーザの動きの意図を保ちながら、望ましくないシャキネスを除去するので、ビデオ処理に欠かせない。
既存のアプローチは、運用するドメインによって、ユーザエクスペリエンスを低下させるいくつかの問題に悩まされます。
ビデオの安定化を時間的に一貫性のある局所的再構成とレンダリングのパラダイムとして再構成する,新しい3Dグラウンドアプローチである textbfGaVS を紹介する。
論文 参考訳(メタデータ) (2025-06-30T15:24:27Z) - Gaussian Mapping for Evolving Scenes [33.02977341856557]
本稿では,最新の変化を反映して連続的に3次元表現を更新する動的シーン適応機構を提案する。
また,できるだけ多くの情報を保存しながら,時代遅れの観測を破棄する新しい管理機構を提案する。
合成, 実世界の両方のデータセット上でガウス写像(GaME)を評価し, 美術品の状態よりも高精度であることが確認された。
論文 参考訳(メタデータ) (2025-06-07T20:04:54Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - Efficient Gaussian Splatting for Monocular Dynamic Scene Rendering via Sparse Time-Variant Attribute Modeling [64.84686527988809]
Deformable Gaussian Splattingは、現実世界のダイナミックなシーンを表現する堅牢なソリューションとして登場した。
提案手法は,古典的カーネル表現を用いて計算された密度ガウスの運動流を用いて,スパースアンカーグリッド表現を用いて動的シーンを定式化する。
2つの実世界のデータセットの実験により、EDGSはレンダリング速度を大幅に改善し、より優れたレンダリング品質を実現しています。
論文 参考訳(メタデータ) (2025-02-27T18:53:06Z) - D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - Deformable 3D Gaussians for High-Fidelity Monocular Dynamic Scene
Reconstruction [29.83056271799794]
暗黙の神経表現は、動的なシーンの再構築とレンダリングに対する新しいアプローチの道を開いた。
本稿では,3次元ガウシアンを用いてシーンを再構成し,標準空間で学習する,変形可能な3次元ガウシアンスプラッティング法を提案する。
微分ガウシアン化器により、変形可能な3Dガウシアンは高いレンダリング品質だけでなく、リアルタイムレンダリング速度も達成できる。
論文 参考訳(メタデータ) (2023-09-22T16:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。