論文の概要: Physics Informed Neural Fields for Smoke Reconstruction with Sparse Data
- arxiv url: http://arxiv.org/abs/2206.06577v1
- Date: Tue, 14 Jun 2022 03:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 06:37:54.104474
- Title: Physics Informed Neural Fields for Smoke Reconstruction with Sparse Data
- Title(参考訳): スパースデータを用いたスモーク再構成のための物理インフォームドニューラルフィールド
- Authors: Mengyu Chu, Lingjie Liu, Quan Zheng, Erik Franz, Hans-Peter Seidel,
Christian Theobalt, Rhaleb Zayer
- Abstract要約: まばらなマルチビューRGBビデオから流体を高忠実に再現することは、まだまだ難しい課題だ。
既存のソリューションは、障害物や照明に関する知識を前提とするか、障害物や複雑な照明のない単純な流体シーンのみに焦点を当てる。
本稿では, 制御物理(Navier-Stokes方程式)をエンドツーエンドの最適化で活用することにより, 動的流体を再構築する最初の方法を提案する。
- 参考スコア(独自算出の注目度): 73.8970871148949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-fidelity reconstruction of fluids from sparse multiview RGB videos
remains a formidable challenge due to the complexity of the underlying physics
as well as complex occlusion and lighting in captures. Existing solutions
either assume knowledge of obstacles and lighting, or only focus on simple
fluid scenes without obstacles or complex lighting, and thus are unsuitable for
real-world scenes with unknown lighting or arbitrary obstacles. We present the
first method to reconstruct dynamic fluid by leveraging the governing physics
(ie, Navier -Stokes equations) in an end-to-end optimization from sparse videos
without taking lighting conditions, geometry information, or boundary
conditions as input. We provide a continuous spatio-temporal scene
representation using neural networks as the ansatz of density and velocity
solution functions for fluids as well as the radiance field for static objects.
With a hybrid architecture that separates static and dynamic contents, fluid
interactions with static obstacles are reconstructed for the first time without
additional geometry input or human labeling. By augmenting time-varying neural
radiance fields with physics-informed deep learning, our method benefits from
the supervision of images and physical priors. To achieve robust optimization
from sparse views, we introduced a layer-by-layer growing strategy to
progressively increase the network capacity. Using progressively growing models
with a new regularization term, we manage to disentangle density-color
ambiguity in radiance fields without overfitting. A pretrained
density-to-velocity fluid model is leveraged in addition as the data prior to
avoid suboptimal velocity which underestimates vorticity but trivially fulfills
physical equations. Our method exhibits high-quality results with relaxed
constraints and strong flexibility on a representative set of synthetic and
real flow captures.
- Abstract(参考訳): sparse multiview rgbビデオからの流体の高忠実度再構成は、基礎となる物理学の複雑さと複雑な閉塞と撮影における照明のため、非常に難しい課題である。
既存のソリューションは障害物や照明の知識を前提とするか、障害物や複雑な照明のない単純な流動的なシーンにのみ焦点を合わせているため、未知の照明や任意の障害物を持つ現実世界のシーンには適さない。
本稿では,照明条件,形状情報,境界条件を入力として取り込むことなく,スパースビデオからのエンドツーエンド最適化において,制御物理学(ie,navier-stokes方程式)を利用して動的流体を再構築する最初の方法を提案する。
静的物体の放射場だけでなく流体の密度と速度解関数のアンザッツとしてニューラルネットワークを用いた連続時空間表現を提供する。
静的および動的コンテンツを分離するハイブリッドアーキテクチャにより、静的障害物との流体相互作用は、追加の幾何学的入力や人間のラベル付けなしで初めて再構築される。
時間変化する神経放射野を物理に変形した深層学習で強化することで,画像と物理前駆者の監督により,本手法の利点を享受できる。
スパースビューからロバストな最適化を実現するため,ネットワーク容量を徐々に増大させる層間成長戦略を導入した。
新しい正規化項を持つ漸進的に成長するモデルを用いて、過度に適合することなく、放射場における密度-色のあいまいさを解消する。
渦度を過小評価するが、物理方程式を自明に満たすような準最適速度を避けるために、事前訓練された密度-速度流体モデルも利用できる。
本手法は,合成および実フローキャプチャの代表的なセットにおいて,制約を緩和し,強い柔軟性を有する高品質な結果を示す。
関連論文リスト
- Learning Physics From Video: Unsupervised Physical Parameter Estimation for Continuous Dynamical Systems [49.11170948406405]
ビデオからの自動パラメータ推定の最先端は、大規模データセット上で教師付きディープネットワークをトレーニングすることによって解決される。
単一ビデオから, 既知, 連続制御方程式の物理パラメータを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T09:44:54Z) - Physics-Informed Learning of Characteristic Trajectories for Smoke Reconstruction [17.634226193457277]
既存の物理インフォームドニューラルネットワークは、短期的な物理の制約を強調しており、長期保存の適切な保存は調査を控えている。
ラグランジアン流体軌道を暗黙的にモデル化するためにユーレリアニューラル場を利用した新しい表現であるニューラル特性軌道場を導入する。
この表現に基づいて物理インフォームド・トラジェクトリ・ラーニングとNeRFに基づくシーン再構成への統合を提案する。
論文 参考訳(メタデータ) (2024-07-12T20:19:41Z) - NeAI: A Pre-convoluted Representation for Plug-and-Play Neural Ambient
Illumination [28.433403714053103]
ニューラル環境照明(NeAI)という枠組みを提案する。
NeAIは、物理的な方法で複雑な照明を扱うための照明モデルとしてNeRF(Neural Radiance Fields)を使用している。
実験は、以前の作品と比較して、ノベルビューレンダリングの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-04-18T06:32:30Z) - BLiRF: Bandlimited Radiance Fields for Dynamic Scene Modeling [43.246536947828844]
本稿では,帯域制限された高次元信号の合成としてシーンを定式化し,時間と空間を分解するフレームワークを提案する。
我々は、照明、テクスチャ、長距離ダイナミクスの変化を含む複雑な動的シーンにまたがる魅力的な結果を実証する。
論文 参考訳(メタデータ) (2023-02-27T06:40:32Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Real-time Neural Radiance Caching for Path Tracing [67.46991813306708]
本稿では,パストレーシングによる大域照明のためのリアルタイムなニューラルラディアンスキャッシング手法を提案する。
我々のシステムは、完全にダイナミックなシーンを扱うように設計されており、照明、幾何学、材料に関する仮定は一切ない。
バイアスの少ないコストで大きなノイズ低減効果を示し、多くの難題に対して最先端のリアルタイム性能を報告した。
論文 参考訳(メタデータ) (2021-06-23T13:09:58Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。