論文の概要: SurfPhase: 3D Interfacial Dynamics in Two-Phase Flows from Sparse Videos
- arxiv url: http://arxiv.org/abs/2602.11154v1
- Date: Wed, 11 Feb 2026 18:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.359956
- Title: SurfPhase: 3D Interfacial Dynamics in Two-Phase Flows from Sparse Videos
- Title(参考訳): SurfPhase:スパースビデオからの2相流れにおける3次元界面ダイナミクス
- Authors: Yue Gao, Hong-Xing Yu, Sanghyeon Chang, Qianxi Fu, Bo Zhu, Yoonjin Won, Juan Carlos Niebles, Jiajun Wu,
- Abstract要約: スパースカメラビューから3次元界面力学を再構成する新しいモデルであるSurfPhaseを提案する。
高速プール沸騰ビデオの新しいデータセットについて評価し,2つのカメラビューのみから高品質なビュー合成と速度推定を実証した。
- 参考スコア(独自算出の注目度): 37.70003012602796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interfacial dynamics in two-phase flows govern momentum, heat, and mass transfer, yet remain difficult to measure experimentally. Classical techniques face intrinsic limitations near moving interfaces, while existing neural rendering methods target single-phase flows with diffuse boundaries and cannot handle sharp, deformable liquid-vapor interfaces. We propose SurfPhase, a novel model for reconstructing 3D interfacial dynamics from sparse camera views. Our approach integrates dynamic Gaussian surfels with a signed distance function formulation for geometric consistency, and leverages a video diffusion model to synthesize novel-view videos to refine reconstruction from sparse observations. We evaluate on a new dataset of high-speed pool boiling videos, demonstrating high-quality view synthesis and velocity estimation from only two camera views. Project website: https://yuegao.me/SurfPhase.
- Abstract(参考訳): 二相流の界面力学は運動量、熱、物質移動を支配しているが、実験的に測定することは困難である。
古典的な手法では、移動界面付近で固有の制限に直面し、既存のニューラルネットワークは拡散境界を持つ単一相流をターゲットとし、鋭く変形可能な液体-蒸気界面を扱えない。
スパースカメラビューから3次元界面力学を再構成する新しいモデルであるSurfPhaseを提案する。
提案手法は, 動的ガウス波と符号付き距離関数の定式化を統合し, ビデオ拡散モデルを用いて新鮮映像を合成し, スパース観測から再構成する。
高速プール沸騰ビデオの新しいデータセットについて評価し,2つのカメラビューのみから高品質なビュー合成と速度推定を実証した。
プロジェクトウェブサイト: https://yuegao.me/SurfPhase.com
関連論文リスト
- Estimating 2D Camera Motion with Hybrid Motion Basis [45.971928868591334]
CamFlowは、ハイブリッドモーションベースを使用したカメラモーションを表現する新しいフレームワークである。
提案手法は,ラプラス分布に基づくハイブリッド確率損失関数を含む。
CamFlowはさまざまなシナリオで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-07-30T08:30:37Z) - M2DAO-Talker: Harmonizing Multi-granular Motion Decoupling and Alternating Optimization for Talking-head Generation [65.48046909056468]
我々は,音声音声生成をビデオ前処理,モーション表現,レンダリング再構成を含む統一的なフレームワークに再構成する。
M2DAO-Talkerは2.43dBのPSNRの改善とユーザ評価ビデオの画質0.64アップで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-07-11T04:48:12Z) - SViMo: Synchronized Diffusion for Video and Motion Generation in Hand-object Interaction Scenarios [48.09735396455107]
ハンドオブジェクトインタラクション(HOI)生成には、大きな応用可能性がある。
現在の3D HOIモーション生成アプローチは、事前に定義された3Dオブジェクトモデルとラボでキャプチャされたモーションデータに大きく依存している。
本稿では,同期拡散プロセス内での視覚的事前制約と動的制約を組み合わせることで,HOIビデオと動きを同時に生成するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-03T05:04:29Z) - SurMo: Surface-based 4D Motion Modeling for Dynamic Human Rendering [45.51684124904457]
統合されたフレームワークにおける時間的ダイナミクスと人間の外見をモデル化する新しい4DモーションパラダイムであるSurMoを提案する。
効率的なコンパクトな表面ベース三面体で4次元の人間の動きをモデル化する表面ベースの動き符号化。
身体運動学習を促進するために設計された身体運動復号法。
表面条件の効率的なデコードにより、モーショントリプレーンを画像にレンダリングする4次元の外観モデリング。
論文 参考訳(メタデータ) (2024-04-01T16:34:27Z) - Decoupling Dynamic Monocular Videos for Dynamic View Synthesis [50.93409250217699]
動的モノクロビデオからの動的ビュー合成の課題を教師なしで解決する。
具体的には、動的物体の運動を物体の動きとカメラの動きに分離し、教師なし表面の整合性およびパッチベースのマルチビュー制約によって規則化する。
論文 参考訳(メタデータ) (2023-04-04T11:25:44Z) - Learning Vortex Dynamics for Fluid Inference and Prediction [25.969713036393895]
本研究では, 可変渦粒子を用いた新しい機械学習手法を提案し, 一つのビデオから流体力学を推論し, 予測する。
そこで我々は, 学習可能な渦対速度のダイナミックスマッピングと組み合わせて, 複雑な流れの特徴を効果的に捉え, 表現するために, 新たな微分可能渦粒子系を考案した。
論文 参考訳(メタデータ) (2023-01-27T02:10:05Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Enhanced Quadratic Video Interpolation [56.54662568085176]
より複雑なシーンや動きパターンを扱うために,拡張された2次ビデオ(EQVI)モデルを提案する。
さらなる性能向上のために,学習可能な拡張プロセスと見なせる新しいマルチスケール核融合ネットワーク(MS-Fusion)を考案した。
提案されたEQVIモデルは、AIM 2020 Video Temporal Super-Resolution Challengeで優勝した。
論文 参考訳(メタデータ) (2020-09-10T02:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。