論文の概要: PhysicsGen: Can Generative Models Learn from Images to Predict Complex Physical Relations?
- arxiv url: http://arxiv.org/abs/2503.05333v1
- Date: Fri, 07 Mar 2025 11:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:56:37.099218
- Title: PhysicsGen: Can Generative Models Learn from Images to Predict Complex Physical Relations?
- Title(参考訳): 物理源:生成モデルは複雑な物理関係を予測するために画像から学ぶことができるか?
- Authors: Martin Spitznagel, Jan Vaillant, Janis Keuper,
- Abstract要約: 本稿では,物理シミュレーションの文脈における生成モデルの可能性について検討する。
3種類の物理シミュレーションタスクに対して,300kイメージペアのデータセットとベースライン評価を行う。
- 参考スコア(独自算出の注目度): 7.1606014219358425
- License:
- Abstract: The image-to-image translation abilities of generative learning models have recently made significant progress in the estimation of complex (steered) mappings between image distributions. While appearance based tasks like image in-painting or style transfer have been studied at length, we propose to investigate the potential of generative models in the context of physical simulations. Providing a dataset of 300k image-pairs and baseline evaluations for three different physical simulation tasks, we propose a benchmark to investigate the following research questions: i) are generative models able to learn complex physical relations from input-output image pairs? ii) what speedups can be achieved by replacing differential equation based simulations? While baseline evaluations of different current models show the potential for high speedups (ii), these results also show strong limitations toward the physical correctness (i). This underlines the need for new methods to enforce physical correctness. Data, baseline models and evaluation code http://www.physics-gen.org.
- Abstract(参考訳): 生成学習モデルのイメージ・ツー・イメージ翻訳能力は,画像分布間の複雑な(ステアリングされた)マッピングの推定において,近年大きく進歩している。
画像のインペインティングやスタイル転送といった外観に基づくタスクを長く研究してきたが,本研究では,物理シミュレーションの文脈における生成モデルの可能性について検討する。
3つの物理シミュレーションタスクに対して,300kイメージペアのデータセットとベースライン評価を提供することで,以下の研究課題を調査するためのベンチマークを提案する。
一 入力出力画像対から複雑な物理関係を学習することができるか。
二 微分方程式に基づくシミュレーションを置き換えることで、どのようなスピードアップを実現することができるか。
異なる電流モデルのベースライン評価は高速化の可能性を示している
(ii) 身体的正当性に対する強い限界も示している。
(i)
このことは、物理的な正しさを強制する新しい方法の必要性を浮き彫りにする。
データ、ベースラインモデル、評価コード http://www.physics-gen.org
関連論文リスト
- PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
本稿では、物理シミュレーションを利用した新しいフレームワークであるPhysMotionを紹介し、一つの画像と入力条件から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - PhysGen: Rigid-Body Physics-Grounded Image-to-Video Generation [29.831214435147583]
本稿では,新しい画像対ビデオ生成法であるPhysGenを提案する。
リアルで、物理的にもっともらしく、時間的に一貫したビデオを生み出す。
我々の重要な洞察は、モデルに基づく物理シミュレーションとデータ駆動のビデオ生成プロセスを統合することである。
論文 参考訳(メタデータ) (2024-09-27T17:59:57Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - PhysGraph: Physics-Based Integration Using Graph Neural Networks [9.016253794897874]
我々は,コンピュータゲーム,バーチャルリアリティ,バーチャルトライオンなど多くの応用がある粗い衣服形状の詳細な拡張に焦点を当てた。
我々の貢献は単純な観察に基づいており、従来のシミュレーション手法では計算コストが比較的安い。
このアイデアが、小さなメッシュパッチの基本的な内部力に基づいてトレーニング可能な、学習可能なモジュールにつながることを実証しています。
論文 参考訳(メタデータ) (2023-01-27T16:47:10Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Neural Implicit Representations for Physical Parameter Inference from a Single Video [49.766574469284485]
本稿では,外見モデルのためのニューラル暗黙表現と,物理現象をモデル化するためのニューラル常微分方程式(ODE)を組み合わせることを提案する。
提案モデルでは,大規模なトレーニングデータセットを必要とする既存のアプローチとは対照的に,単一のビデオから物理的パラメータを識別することが可能になる。
ニューラル暗示表現を使用することで、高解像度ビデオの処理とフォトリアリスティック画像の合成が可能になる。
論文 参考訳(メタデータ) (2022-04-29T11:55:35Z) - BPLF: A Bi-Parallel Linear Flow Model for Facial Expression Generation
from Emotion Set Images [0.0]
フローベース生成モデルはディープラーニング生成モデルであり、データ分布を明示的に学習することでデータを生成する能力を得る。
本稿では、感情セット画像から顔の感情を生成するための双方向線形フローモデルを構築した。
本稿では、現在の顔の感情画像の公開データセットを整理し、新しい感情データを作成し、このデータセットを通してモデルを検証した。
論文 参考訳(メタデータ) (2021-05-27T09:37:09Z) - gradSim: Differentiable simulation for system identification and
visuomotor control [66.37288629125996]
本稿では,微分可能マルチフィジカルシミュレーションと微分可能レンダリングを活用し,3次元監督への依存を克服するフレームワークであるgradsimを提案する。
当社の統合グラフは、状態ベースの(3D)監督に頼ることなく、挑戦的なバイスモメータ制御タスクで学習を可能にします。
論文 参考訳(メタデータ) (2021-04-06T16:32:01Z) - Learning to Simulate Complex Physics with Graph Networks [68.43901833812448]
本稿では,機械学習のフレームワークとモデルの実装について紹介する。
グラフネットワーク・ベース・シミュレータ(GNS)と呼ばれる我々のフレームワークは、グラフ内のノードとして表現された粒子で物理系の状態を表現し、学習されたメッセージパスによって動的を計算します。
我々のモデルは,訓練中に数千の粒子による1段階の予測から,異なる初期条件,数千の時間ステップ,少なくとも1桁以上の粒子をテスト時に一般化できることを示す。
論文 参考訳(メタデータ) (2020-02-21T16:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。