論文の概要: Event-guided 3D Gaussian Splatting for Dynamic Human and Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2509.18566v1
- Date: Tue, 23 Sep 2025 02:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.661254
- Title: Event-guided 3D Gaussian Splatting for Dynamic Human and Scene Reconstruction
- Title(参考訳): 動的ヒト・シーン再構成のためのイベント誘導型3次元ガウススプラッティング
- Authors: Xiaoting Yin, Hao Shi, Kailun Yang, Jiajun Zhai, Shangwei Guo, Lin Wang, Kaiwei Wang,
- Abstract要約: イベントカメラは、例えばマイクロ秒の時間分解能など、異なる利点を示しており、人間の動的再構成において優れた感覚選択である。
一つの単眼イベントカメラから人間とシーンを共同でモデル化する,イベント誘導型ヒューマンシーン再構築フレームワークを提案する。
本研究では,連続レンダリングとイベントストリーム間の輝度変化をシミュレートしたイベント誘導損失を提案する。
- 参考スコア(独自算出の注目度): 37.481209540157494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing dynamic humans together with static scenes from monocular videos remains difficult, especially under fast motion, where RGB frames suffer from motion blur. Event cameras exhibit distinct advantages, e.g., microsecond temporal resolution, making them a superior sensing choice for dynamic human reconstruction. Accordingly, we present a novel event-guided human-scene reconstruction framework that jointly models human and scene from a single monocular event camera via 3D Gaussian Splatting. Specifically, a unified set of 3D Gaussians carries a learnable semantic attribute; only Gaussians classified as human undergo deformation for animation, while scene Gaussians stay static. To combat blur, we propose an event-guided loss that matches simulated brightness changes between consecutive renderings with the event stream, improving local fidelity in fast-moving regions. Our approach removes the need for external human masks and simplifies managing separate Gaussian sets. On two benchmark datasets, ZJU-MoCap-Blur and MMHPSD-Blur, it delivers state-of-the-art human-scene reconstruction, with notable gains over strong baselines in PSNR/SSIM and reduced LPIPS, especially for high-speed subjects.
- Abstract(参考訳): RGBフレームが動きのぼけに悩まされている高速モーションでは、モノクラービデオから静的なシーンとともに動的人間を再構築することは依然として困難である。
イベントカメラは、例えば、マイクロ秒時間分解能など、異なる利点を示し、動的な人間の再構築において優れた感覚選択となる。
そこで我々は,1台の単眼のイベントカメラから3Dガウス・スプラッティングを通して,人間とシーンを共同でモデル化する,イベント誘導型ヒューマンシーン再構築フレームワークを提案する。
具体的には、3Dガウスの統一された集合は、学習可能なセマンティック属性を持ち、ガウスだけがアニメーションのために人間の下地変形に分類され、シーンガウスは静止している。
そこで本研究では,連続レンダリングとイベントストリーム間の輝度変化を模擬したイベント誘導損失を提案する。
我々のアプローチは、外部の人間のマスクの必要性を排除し、別々のガウス集合の管理を単純化する。
ZJU-MoCap-BlurとMMHPSD-Blurという2つのベンチマークデータセットでは、最先端の人間シーンの再構築が実現され、PSNR/SSIMの強いベースラインよりも顕著に向上し、特に高速な被験者に対してLPIPSが削減された。
関連論文リスト
- UAV4D: Dynamic Neural Rendering of Human-Centric UAV Imagery using Gaussian Splatting [54.883935964137706]
UAV4Dは,UAVが捉えたダイナミックな現実世界のシーンに対して,フォトリアリスティックなレンダリングを可能にするフレームワークである。
我々は3次元基礎モデルと人間のメッシュ再構築モデルを組み合わせて、シーン背景と人間の両方を再構築する。
以上の結果から,新しい視点合成法に対するアプローチの利点が示され,1.5dBPSNRの改善と視覚的シャープネスの向上が達成された。
論文 参考訳(メタデータ) (2025-06-05T13:21:09Z) - EfficientHuman: Efficient Training and Reconstruction of Moving Human using Articulated 2D Gaussian [15.56606942574165]
3DGSを用いた3次元人体再構築における最近の研究は、人間のポーズの事前情報を活用して、レンダリング品質を高め、トレーニング速度を向上しようとする試みである。
多視点の不整合と冗長なガウスのために、動的曲面を効果的に適合させるのに苦労する。
本研究では,Articulated 2D Gaussianを用いて人体を動的に再構築するモデルであるEfficientHumanを提案する。
論文 参考訳(メタデータ) (2025-04-29T10:15:43Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - ExFMan: Rendering 3D Dynamic Humans with Hybrid Monocular Blurry Frames and Events [7.820081911598502]
ハイブリットフレームベースのRGBとバイオインスパイアされたイベントカメラを用いて,高品質な人間を高速動作でレンダリングする,最初のニューラルレンダリングフレームワークであるExFManを提案する。
まず、標準空間における3次元物体の速度場を定式化し、それを画像空間に描画して、動きのぼやけのある身体部位を識別する。
次に,2つの新たな損失,すなわちベロシティ対応光度損失とベロシティ関連事象損失を提案し,ニューラル・ヒューマンを両モードで最適化する。
論文 参考訳(メタデータ) (2024-09-21T10:58:01Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GauHuman: Articulated Gaussian Splatting from Monocular Human Videos [58.553979884950834]
GauHumanは、高速トレーニング(12分)とリアルタイムレンダリング(最大189FPS)の両方のためのガウススプラッティングを備えた3次元人体モデルである。
ガウフマンはカノニカル空間でガウススプラッティングを符号化し、3次元ガウスを線形ブレンドスキンニング(LBS)で正標準空間からポーズ空間に変換する
ZJU_MocapとMonoCapデータセットの実験は、GauHumanが高速なトレーニングとリアルタイムレンダリング速度によって、最先端のパフォーマンスを定量的に質的に達成していることを示している。
論文 参考訳(メタデータ) (2023-12-05T18:59:14Z) - Animatable 3D Gaussian: Fast and High-Quality Reconstruction of Multiple Human Avatars [18.55354901614876]
入力画像とポーズから人間のアバターを学習するAnimatable 3D Gaussianを提案する。
新規なビュー合成と新規ポーズ合成の両タスクにおいて,本手法はトレーニング時間を短縮したInstantAvatarよりも高い再現性を実現する。
本手法は,25秒のトレーニングで10人のシーンにおいて,複数のシーンに容易に拡張可能であり,それと同等の新規なビュー合成結果が得られる。
論文 参考訳(メタデータ) (2023-11-27T08:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。