論文の概要: Gaussians on Fire: High-Frequency Reconstruction of Flames
- arxiv url: http://arxiv.org/abs/2511.22459v1
- Date: Thu, 27 Nov 2025 13:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.589434
- Title: Gaussians on Fire: High-Frequency Reconstruction of Flames
- Title(参考訳): ガウス火炎放射器の高頻度再現
- Authors: Jakob Nazarenus, Dominik Michels, Wojtek Palubicki, Simin Kou, Fang-Lue Zhang, Soren Pirk, Reinhard Koch,
- Abstract要約: 本稿では,ガウス表現の限定セットを用いて,限られたカメラビューから3次元のダイナミックファイアを再構築する手法を提案する。
定量的および定性的な検証は、多様で挑戦的な実火性能シナリオに対する堅牢な実験を実証する。
- 参考スコア(独自算出の注目度): 12.97651761884317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method to reconstruct dynamic fire in 3D from a limited set of camera views with a Gaussian-based spatiotemporal representation. Capturing and reconstructing fire and its dynamics is highly challenging due to its volatile nature, transparent quality, and multitude of high-frequency features. Despite these challenges, we aim to reconstruct fire from only three views, which consequently requires solving for under-constrained geometry. We solve this by separating the static background from the dynamic fire region by combining dense multi-view stereo images with monocular depth priors. The fire is initialized as a 3D flow field, obtained by fusing per-view dense optical flow projections. To capture the high frequency features of fire, each 3D Gaussian encodes a lifetime and linear velocity to match the dense optical flow. To ensure sub-frame temporal alignment across cameras we employ a custom hardware synchronization pattern -- allowing us to reconstruct fire with affordable commodity hardware. Our quantitative and qualitative validations across numerous reconstruction experiments demonstrate robust performance for diverse and challenging real fire scenarios.
- Abstract(参考訳): 本稿では,ガウス型時空間表現を用いて,限られたカメラビューから3次元のダイナミックファイアを再構築する手法を提案する。
火の捕獲と再構成とその力学は、その揮発性の性質、透明な品質、および多数の高周波特性のために非常に困難である。
これらの課題にも拘わらず、3つの視点から火災を再現することを目指しており、その結果、過度に制約された幾何学の解決が必要である。
我々は,高密度の多視点ステレオ画像と単眼深度先行画像を組み合わせることで,静的背景を動的火災領域から分離することで,この問題を解決する。
火災は3次元流れ場として初期化され、視界当たりの高密度光流射影を融合して得られる。
火の高周波特性を捉えるために、それぞれの3Dガウスは、密度の高い光の流れに合わせて寿命と線形速度を符号化する。
カメラ間のサブフレームの時間的アライメントを確保するため、私たちはカスタムハードウェア同期パターンを採用しています -- 安価なコモディティハードウェアでファイアを再構築することができます。
多数の再建実験における定量的および定性的な検証は,多種多様な実火のシナリオに対する堅牢な性能を示す。
関連論文リスト
- Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark [51.68144172958247]
そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2025-07-16T05:54:33Z) - SweepEvGS: Event-Based 3D Gaussian Splatting for Macro and Micro Radiance Field Rendering from a Single Sweep [48.34647667445792]
SweepEvGSは、イベントカメラを活用して、単一のスイープから堅牢で正確な新しいビュー合成を行う、新しいハードウェア統合手法である。
SweepEvGSの強靭性と効率性は,3つの異なる画像環境における実験により検証した。
以上の結果から,SweepEvGSは視覚的レンダリング品質,レンダリング速度,計算効率において,既存の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-12-16T09:09:42Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - EvaGaussians: Event Stream Assisted Gaussian Splatting from Blurry Images [36.91327728871551]
3次元ガウススプラッティング(3D-GS)は、3次元シーン再構成と新しいビュー合成において例外的な機能を示した。
本稿では,イベントストリーム支援型ガウシアンスプラッティング(EvaGaussians)について紹介する。これは,イベントカメラがキャプチャしたイベントストリームを統合して,ぼやけた画像から高品質な3D-GSを再構築する手法である。
論文 参考訳(メタデータ) (2024-05-29T04:59:27Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。