論文の概要: Learning an Implicit Physics Model for Image-based Fluid Simulation
- arxiv url: http://arxiv.org/abs/2508.08254v1
- Date: Mon, 11 Aug 2025 17:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.258135
- Title: Learning an Implicit Physics Model for Image-based Fluid Simulation
- Title(参考訳): 画像に基づく流体シミュレーションのためのインシシト物理モデル学習
- Authors: Emily Yue-Ting Jia, Jiageng Mao, Zhiyuan Gao, Yajie Zhao, Yue Wang,
- Abstract要約: 人間は1枚の静止画から4Dシーンを想像し、動きと3D幾何学の両方を包含する能力を持っている。
本稿では,この容量をニューラルネットワークで再現することを目的としており,特に自然流体画像に焦点を当てている。
そこで本研究では,物理に一貫性のある1つの画像から4次元シーンを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 11.273649912979055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans possess an exceptional ability to imagine 4D scenes, encompassing both motion and 3D geometry, from a single still image. This ability is rooted in our accumulated observations of similar scenes and an intuitive understanding of physics. In this paper, we aim to replicate this capacity in neural networks, specifically focusing on natural fluid imagery. Existing methods for this task typically employ simplistic 2D motion estimators to animate the image, leading to motion predictions that often defy physical principles, resulting in unrealistic animations. Our approach introduces a novel method for generating 4D scenes with physics-consistent animation from a single image. We propose the use of a physics-informed neural network that predicts motion for each surface point, guided by a loss term derived from fundamental physical principles, including the Navier-Stokes equations. To capture appearance, we predict feature-based 3D Gaussians from the input image and its estimated depth, which are then animated using the predicted motions and rendered from any desired camera perspective. Experimental results highlight the effectiveness of our method in producing physically plausible animations, showcasing significant performance improvements over existing methods. Our project page is https://physfluid.github.io/ .
- Abstract(参考訳): 人間は1枚の静止画から4Dシーンを想像し、動きと3D幾何学の両方を包含する能力を持っている。
この能力は、我々が蓄積した類似のシーンの観察と、物理の直感的な理解に根ざしている。
本稿では,この容量をニューラルネットワークで再現することを目的としており,特に自然流体画像に焦点を当てている。
このタスクの既存の方法は、通常、イメージをアニメーションするために単純化された2Dモーション推定器を使用し、しばしば物理原理に反する動作予測をもたらし、非現実的なアニメーションをもたらす。
そこで本研究では,物理に一貫性のある1つの画像から4次元シーンを生成する手法を提案する。
本研究では,Navier-Stokes方程式を含む基本的な物理原理から導かれる損失項によって導かれる各表面点の運動を予測する物理情報ニューラルネットワークを提案する。
外観を捉えるために、入力画像とその推定深度から特徴に基づく3Dガウスを予測し、予測された動きを用いてアニメーションし、任意のカメラ視点からレンダリングする。
実験結果から,本手法の有効性が明らかとなり,既存の手法よりも優れた性能向上が得られた。
私たちのプロジェクトページはhttps://physfluid.github.io/です。
関連論文リスト
- PhysHMR: Learning Humanoid Control Policies from Vision for Physically Plausible Human Motion Reconstruction [52.44375492811009]
物理学に基づくシミュレーターにおいて,ヒューマノイド制御のための視覚行動ポリシーを学習する統合フレームワークであるPhysHMRを提案する。
我々のアプローチの重要な要素はピクセル・アズ・レイ戦略であり、2次元のキーポイントを3次元空間に上げ、それらを大域空間に変換する。
PhysHMRは多種多様なシナリオにまたがって高忠実で物理的に妥当な動きを生じさせ、視覚的精度と身体的リアリズムの両方において以前のアプローチより優れている。
論文 参考訳(メタデータ) (2025-10-02T21:01:11Z) - FreeGave: 3D Physics Learning from Dynamic Videos by Gaussian Velocity [15.375932203870594]
多視点ビデオから3Dシーンの幾何学、外観、基礎となる物理をモデル化することを目的としている。
本稿では,複雑な動的3次元シーンの物理を学ぶために,物体の先行を必要とせずにFreeGaveを提案する。
論文 参考訳(メタデータ) (2025-06-09T15:31:25Z) - PhysGen3D: Crafting a Miniature Interactive World from a Single Image [31.41059199853702]
PhysGen3Dは、単一の画像をアモーダルでカメラ中心のインタラクティブな3Dシーンに変換する新しいフレームワークだ。
中心となるPhysGen3Dは、物体の3D形状、ポーズ、物理的および照明特性を推定する。
我々はPhysGen3Dの性能を、Pika、Kling、Gen-3など、クローズド・ソース・オブ・ザ・アート(SOTA)画像・ビデオモデルと比較した。
論文 参考訳(メタデータ) (2025-03-26T17:31:04Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - PhysAvatar: Learning the Physics of Dressed 3D Avatars from Visual Observations [62.14943588289551]
逆レンダリングと逆物理を組み合わせた新しいフレームワークであるPhysAvatarを導入し、人間の形や外観を自動的に推定する。
PhysAvatarは、トレーニングデータに見られない動きや照明条件の下で、ゆったりした服を着たアバターを再構築する。
論文 参考訳(メタデータ) (2024-04-05T21:44:57Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。