論文の概要: Learning an Implicit Physics Model for Image-based Fluid Simulation
- arxiv url: http://arxiv.org/abs/2508.08254v1
- Date: Mon, 11 Aug 2025 17:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.258135
- Title: Learning an Implicit Physics Model for Image-based Fluid Simulation
- Title(参考訳): 画像に基づく流体シミュレーションのためのインシシト物理モデル学習
- Authors: Emily Yue-Ting Jia, Jiageng Mao, Zhiyuan Gao, Yajie Zhao, Yue Wang,
- Abstract要約: 人間は1枚の静止画から4Dシーンを想像し、動きと3D幾何学の両方を包含する能力を持っている。
本稿では,この容量をニューラルネットワークで再現することを目的としており,特に自然流体画像に焦点を当てている。
そこで本研究では,物理に一貫性のある1つの画像から4次元シーンを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 11.273649912979055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans possess an exceptional ability to imagine 4D scenes, encompassing both motion and 3D geometry, from a single still image. This ability is rooted in our accumulated observations of similar scenes and an intuitive understanding of physics. In this paper, we aim to replicate this capacity in neural networks, specifically focusing on natural fluid imagery. Existing methods for this task typically employ simplistic 2D motion estimators to animate the image, leading to motion predictions that often defy physical principles, resulting in unrealistic animations. Our approach introduces a novel method for generating 4D scenes with physics-consistent animation from a single image. We propose the use of a physics-informed neural network that predicts motion for each surface point, guided by a loss term derived from fundamental physical principles, including the Navier-Stokes equations. To capture appearance, we predict feature-based 3D Gaussians from the input image and its estimated depth, which are then animated using the predicted motions and rendered from any desired camera perspective. Experimental results highlight the effectiveness of our method in producing physically plausible animations, showcasing significant performance improvements over existing methods. Our project page is https://physfluid.github.io/ .
- Abstract(参考訳): 人間は1枚の静止画から4Dシーンを想像し、動きと3D幾何学の両方を包含する能力を持っている。
この能力は、我々が蓄積した類似のシーンの観察と、物理の直感的な理解に根ざしている。
本稿では,この容量をニューラルネットワークで再現することを目的としており,特に自然流体画像に焦点を当てている。
このタスクの既存の方法は、通常、イメージをアニメーションするために単純化された2Dモーション推定器を使用し、しばしば物理原理に反する動作予測をもたらし、非現実的なアニメーションをもたらす。
そこで本研究では,物理に一貫性のある1つの画像から4次元シーンを生成する手法を提案する。
本研究では,Navier-Stokes方程式を含む基本的な物理原理から導かれる損失項によって導かれる各表面点の運動を予測する物理情報ニューラルネットワークを提案する。
外観を捉えるために、入力画像とその推定深度から特徴に基づく3Dガウスを予測し、予測された動きを用いてアニメーションし、任意のカメラ視点からレンダリングする。
実験結果から,本手法の有効性が明らかとなり,既存の手法よりも優れた性能向上が得られた。
私たちのプロジェクトページはhttps://physfluid.github.io/です。
関連論文リスト
- Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。