論文の概要: PhysGaia: A Physics-Aware Dataset of Multi-Body Interactions for Dynamic Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2506.02794v1
- Date: Tue, 03 Jun 2025 12:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.621035
- Title: PhysGaia: A Physics-Aware Dataset of Multi-Body Interactions for Dynamic Novel View Synthesis
- Title(参考訳): PhysGaia:動的新しい視点合成のための多体相互作用の物理認識データセット
- Authors: Mijeong Kim, Gunhee Kim, Jungyoon Choi, Wonjae Roh, Bohyung Han,
- Abstract要約: PhysGaiaは動的ノベルビュー合成(DyNVS)のために設計された物理対応のデータセットである。
私たちのデータセットは、複数のオブジェクト間のリッチな相互作用を伴う複雑な動的シナリオを提供します。
PhysGaiaは、動的ビュー合成、物理に基づくシーン理解、および物理シミュレーションと統合されたディープラーニングモデルの研究を著しく前進させる。
- 参考スコア(独自算出の注目度): 62.283499219361595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce PhysGaia, a novel physics-aware dataset specifically designed for Dynamic Novel View Synthesis (DyNVS), encompassing both structured objects and unstructured physical phenomena. Unlike existing datasets that primarily focus on photorealistic reconstruction, PhysGaia is created to actively support physics-aware dynamic scene modeling. Our dataset provides complex dynamic scenarios with rich interactions among multiple objects, where they realistically collide with each other and exchange forces. Furthermore, it contains a diverse range of physical materials, such as liquid, gas, viscoelastic substance, and textile, which moves beyond the rigid bodies prevalent in existing datasets. All scenes in PhysGaia are faithfully generated to strictly adhere to physical laws, leveraging carefully selected material-specific physics solvers. To enable quantitative evaluation of physical modeling, our dataset provides essential ground-truth information, including 3D particle trajectories and physics parameters, e.g., viscosity. To facilitate research adoption, we also provide essential integration pipelines for using state-of-the-art DyNVS models with our dataset and report their results. By addressing the critical lack of datasets for physics-aware modeling, PhysGaia will significantly advance research in dynamic view synthesis, physics-based scene understanding, and deep learning models integrated with physical simulation -- ultimately enabling more faithful reconstruction and interpretation of complex dynamic scenes. Our datasets and codes are available in the project website, http://cvlab.snu.ac.kr/research/PhysGaia.
- Abstract(参考訳): 本稿では,動的ノベルビュー合成(DyNVS)に特化して設計された物理を意識した新しいデータセットであるPhysGaiaを紹介し,構造化対象と非構造化物理現象の両方を包含する。
フォトリアリスティックな再構築を主眼とする既存のデータセットとは異なり、PhysGaiaは物理を意識した動的シーンモデリングを積極的にサポートするために作られている。
私たちのデータセットは、複数のオブジェクト間のリッチな相互作用を伴う複雑な動的シナリオを提供し、現実的に衝突し、力を交換します。
さらに、液体、ガス、粘弾性物質、繊維などの様々な物理材料が含まれており、既存のデータセットで広く見られる剛体を超えて移動している。
フィスガイアのすべての場面は、厳密な物理法則に従うように忠実に生成され、慎重に選択された物質固有の物理解法を利用する。
物理モデリングを定量的に評価するために,本データセットは3次元粒子軌跡や物理パラメータ,例えば粘度など,重要な地下構造情報を提供する。
研究導入を容易にするため、我々のデータセットで最先端のDyNVSモデルを使用するための重要な統合パイプラインを提供し、その結果を報告する。
物理を意識したモデリングのためのデータセットの欠如に対処することで、PhysGaiaは動的ビュー合成、物理に基づくシーン理解、物理シミュレーションと統合されたディープラーニングモデルの研究を著しく前進させ、最終的には複雑なダイナミックシーンのより忠実な再構築と解釈を可能にします。
私たちのデータセットとコードはプロジェクトのWebサイト http://cvlab.snu.ac.kr/research/PhysGaia.orgで公開されています。
関連論文リスト
- OmniPhysGS: 3D Constitutive Gaussians for General Physics-Based Dynamics Generation [25.790371838717284]
より一般的な物体からなる物理に基づく3次元動的シーンを合成するためのOmniPhysGSを提案する。
本手法は,視覚的品質とテキストアライメントの指標において,既存の手法を約3%から16%上回っている。
論文 参考訳(メタデータ) (2025-01-31T09:28:07Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - ContPhy: Continuum Physical Concept Learning and Reasoning from Videos [86.63174804149216]
ContPhyは、マシン物理常識を評価するための新しいベンチマークである。
私たちは、さまざまなAIモデルを評価し、ContPhyで満足なパフォーマンスを達成するのに依然として苦労していることがわかった。
また、近年の大規模言語モデルとパーティクルベースの物理力学モデルを組み合わせるためのオラクルモデル(ContPRO)を導入する。
論文 参考訳(メタデータ) (2024-02-09T01:09:21Z) - Dynamic Visual Reasoning by Learning Differentiable Physics Models from
Video and Language [92.7638697243969]
視覚概念を協調的に学習し,映像や言語から物体の物理モデルを推定する統合フレームワークを提案する。
これは視覚認識モジュール、概念学習モジュール、微分可能な物理エンジンの3つのコンポーネントをシームレスに統合することで実現される。
論文 参考訳(メタデータ) (2021-10-28T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。