論文の概要: WildSmoke: Ready-to-Use Dynamic 3D Smoke Assets from a Single Video in the Wild
- arxiv url: http://arxiv.org/abs/2509.11114v1
- Date: Sun, 14 Sep 2025 06:06:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.9272
- Title: WildSmoke: Ready-to-Use Dynamic 3D Smoke Assets from a Single Video in the Wild
- Title(参考訳): WildSmokeのダイナミックな3Dスモーク・アセットは、野生のシングルビデオから
- Authors: Yuqiu Liu, Jialin Song, Manolis Savva, Wuyang Chen,
- Abstract要約: そこで本研究では,Wild-In-the-Wildビデオからダイナミックな3Dスモークアセットを抽出し,再構成するパイプラインを提案する。
本手法は, 高品位煙の再現により, 過去の復元・生成方法より優れていた。
- 参考スコア(独自算出の注目度): 15.941164647083696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a pipeline to extract and reconstruct dynamic 3D smoke assets from a single in-the-wild video, and further integrate interactive simulation for smoke design and editing. Recent developments in 3D vision have significantly improved reconstructing and rendering fluid dynamics, supporting realistic and temporally consistent view synthesis. However, current fluid reconstructions rely heavily on carefully controlled clean lab environments, whereas real-world videos captured in the wild are largely underexplored. We pinpoint three key challenges of reconstructing smoke in real-world videos and design targeted techniques, including smoke extraction with background removal, initialization of smoke particles and camera poses, and inferring multi-view videos. Our method not only outperforms previous reconstruction and generation methods with high-quality smoke reconstructions (+2.22 average PSNR on wild videos), but also enables diverse and realistic editing of fluid dynamics by simulating our smoke assets. We provide our models, data, and 4D smoke assets at [https://autumnyq.github.io/WildSmoke](https://autumnyq.github.io/WildSmoke).
- Abstract(参考訳): そこで本研究では,Wild-In-Fildビデオからダイナミックな3Dスモークアセットを抽出・再構成するパイプラインを提案し,さらにインタラクティブなスモークデザインと編集のシミュレーションを統合する。
3次元視覚の最近の進歩は、再構成とレンダリングのダイナミックスを大幅に改善し、現実的かつ時間的に一貫したビュー合成をサポートする。
しかし、現在の流体再構成は、慎重に制御されたクリーンな実験室環境に大きく依存している。
実世界のビデオにおける煙の再構成と背景除去による煙抽出,煙粒子とカメラポーズの初期化,マルチビュービデオの推測など,ターゲットとする技術設計の課題を3つ挙げる。
提案手法は,高品質な煙の再現による過去の復元・生成方法(野生ビデオの平均PSNR+2.22)に勝るだけでなく,煙の資産をシミュレートすることで,流体力学の多様かつ現実的な編集を可能にする。
私たちは[https://autumnyq.github.io/WildSmoke](https://autumnyq.github.io/WildSmoke]で、モデル、データ、および4D煙の資産を提供します。
関連論文リスト
- Coarse-to-Real: Generative Rendering for Populated Dynamic Scenes [22.450051108066216]
本稿では,C2R(Coarse-to-Real)について述べる。
提案手法では, シーンレイアウト, カメラモーション, 人体軌跡を明瞭に制御するために, 粗い3次元レンダリングを用いる。
最小限の3D入力から、時間的に一貫性があり、コントロール可能で、リアルな都市シーンビデオを生成する。
論文 参考訳(メタデータ) (2026-01-29T20:29:04Z) - MoCapAnything: Unified 3D Motion Capture for Arbitrary Skeletons from Monocular Videos [31.168481928653748]
MoCapAnythingは、3Dモーションキャプチャーのための基準誘導、因子化フレームワークである。
特定の資産を直接駆動する回転ベースのアニメーションを再構成する。
高品質な骨格アニメーションと有意義なクロスタイプアニメーションを提供する。
論文 参考訳(メタデータ) (2025-12-11T18:09:48Z) - SViM3D: Stable Video Material Diffusion for Single Image 3D Generation [48.986972061812004]
ビデオ拡散モデルは、1つの画像から3Dオブジェクトを効率的に再構成するのに成功している。
我々は,映像拡散モデルを拡張し,空間的に変化するPBRパラメータと表面正規度を,明示的なカメラ制御に基づいて各生成したビューと共同で出力する。
このユニークなセットアップにより、私たちのモデルをニューラルプリエントとして使用した3Dアセットのリライトと生成が可能になります。
論文 参考訳(メタデータ) (2025-10-09T14:29:47Z) - Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-Distillation [87.91642226587294]
現在の学習に基づく3D再構成手法は、キャプチャーされた実世界のマルチビューデータに頼っている。
本稿では,ビデオ拡散モデルにおける暗黙的な3次元知識を,明示的な3次元ガウススプラッティング(3DGS)表現に蒸留する自己蒸留フレームワークを提案する。
本フレームワークは静的・動的3次元シーン生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-23T17:58:01Z) - SmokeSeer: 3D Gaussian Splatting for Smoke Removal and Scene Reconstruction [14.475461616365346]
現実世界のシーンでの煙は、画像の品質を著しく低下させ、視界を損なう。
SmokeSeerは,映像から3次元シーンを同時に再現し,煙を除去する手法である。
熱画像とRGB画像を用いて, 熱画像の散乱を小さくすることで, 煙を観察できることを示す。
論文 参考訳(メタデータ) (2025-09-22T03:05:22Z) - UAV4D: Dynamic Neural Rendering of Human-Centric UAV Imagery using Gaussian Splatting [54.883935964137706]
UAV4Dは,UAVが捉えたダイナミックな現実世界のシーンに対して,フォトリアリスティックなレンダリングを可能にするフレームワークである。
我々は3次元基礎モデルと人間のメッシュ再構築モデルを組み合わせて、シーン背景と人間の両方を再構築する。
以上の結果から,新しい視点合成法に対するアプローチの利点が示され,1.5dBPSNRの改善と視覚的シャープネスの向上が達成された。
論文 参考訳(メタデータ) (2025-06-05T13:21:09Z) - VideoScene: Distilling Video Diffusion Model to Generate 3D Scenes in One Step [13.168559963356952]
VideoSceneは、ビデオ拡散モデルを蒸留して、ワンステップで3Dシーンを生成する。
VideoSceneは従来のビデオ拡散モデルよりも高速で優れた3Dシーン生成結果が得られる。
論文 参考訳(メタデータ) (2025-04-02T17:59:21Z) - UVRM: A Scalable 3D Reconstruction Model from Unposed Videos [68.34221167200259]
従来の2次元視覚データを用いた3D再構成モデルのトレーニングには、トレーニングサンプルのカメラポーズに関する事前知識が必要である。
UVRMは、ポーズに関する情報を必要とせず、単眼ビデオでトレーニングし、評価できる新しい3D再構成モデルである。
論文 参考訳(メタデータ) (2025-01-16T08:00:17Z) - Generalizing Deepfake Video Detection with Plug-and-Play: Video-Level Blending and Spatiotemporal Adapter Tuning [41.30923253467854]
時間的特徴は複雑で多様である。
時空間モデルは、しばしばある種類のアーティファクトに強く依存し、もう一方を無視します。
ビデオは当然リソース集約だ。
論文 参考訳(メタデータ) (2024-08-30T07:49:57Z) - Self-Supervised Video Desmoking for Laparoscopic Surgery [48.83900673665993]
自己監督型手術ビデオデモーキング(SelfSVD)について紹介する。
高エネルギー装置の起動前に捕捉したフレームは一般に明確である(プレスモークフレーム、PSフレーム)。
さらに、PSフレームからモデルに貴重な情報を供給し、マスキング戦略と正規化項を提示し、自明な解決策を避ける。
論文 参考訳(メタデータ) (2024-03-17T12:38:58Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。