論文の概要: Video-Driven Graph Network-Based Simulators
- arxiv url: http://arxiv.org/abs/2409.15344v1
- Date: Tue, 10 Sep 2024 07:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 19:54:40.782093
- Title: Video-Driven Graph Network-Based Simulators
- Title(参考訳): ビデオ駆動型グラフネットワーク型シミュレータ
- Authors: Franciszek Szewczyk, Gilles Louppe, Matthia Sabatelli,
- Abstract要約: 本稿では,短いビデオからシステムの物理的特性を推測する手法を提案する。
学習された表現は、物理システムの軌道をエミュレートするために、グラフネットワークベースのシミュレータ内で使用される。
本研究では,映像由来の符号化がシステムの物理的特性を効果的に捉え,符号化とシステムの動作の線形依存性を示すことを実証する。
- 参考スコア(独自算出の注目度): 7.687678490751104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelike visualizations in design, cinematography, and gaming rely on precise physics simulations, typically requiring extensive computational resources and detailed physical input. This paper presents a method that can infer a system's physical properties from a short video, eliminating the need for explicit parameter input, provided it is close to the training condition. The learned representation is then used within a Graph Network-based Simulator to emulate the trajectories of physical systems. We demonstrate that the video-derived encodings effectively capture the physical properties of the system and showcase a linear dependence between some of the encodings and the system's motion.
- Abstract(参考訳): デザイン、シネマトグラフィー、ゲームにおけるライフライクな視覚化は、精密な物理シミュレーションに依存しており、典型的には広範な計算資源と詳細な物理入力を必要とする。
本稿では,学習条件に近い場合,簡単なビデオからシステムの物理的特性を推測し,明示的なパラメータ入力を不要にする方法を提案する。
学習された表現は、物理システムの軌道をエミュレートするために、グラフネットワークベースのシミュレータ内で使用される。
本研究では,映像由来の符号化がシステムの物理的特性を効果的に捉え,符号化とシステムの動作の線形依存性を示すことを実証する。
関連論文リスト
- PhysGen: Rigid-Body Physics-Grounded Image-to-Video Generation [29.831214435147583]
本稿では,新しい画像対ビデオ生成法であるPhysGenを提案する。
リアルで、物理的にもっともらしく、時間的に一貫したビデオを生み出す。
我々の重要な洞察は、モデルに基づく物理シミュレーションとデータ駆動のビデオ生成プロセスを統合することである。
論文 参考訳(メタデータ) (2024-09-27T17:59:57Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - DreamPhysics: Learning Physical Properties of Dynamic 3D Gaussians with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Learning 3D Particle-based Simulators from RGB-D Videos [15.683877597215494]
本研究では,シミュレータを直接観測から学習する手法を提案する。
視覚粒子ダイナミクス(VPD)は、3Dシーンの潜在粒子ベースの表現を共同で学習する。
既存の2Dビデオ予測モデルとは異なり、VPDの3D構造はシーン編集と長期予測を可能にする。
論文 参考訳(メタデータ) (2023-12-08T20:45:34Z) - NeuPhysics: Editable Neural Geometry and Physics from Monocular Videos [82.74918564737591]
本稿では,モノクラーRGBビデオ入力のみから動的シーンの3次元形状と物理パラメータを学習する手法を提案する。
実験により,提案手法は,競合するニューラルフィールドアプローチと比較して,動的シーンのメッシュとビデオの再構成に優れることを示した。
論文 参考訳(メタデータ) (2022-10-22T04:57:55Z) - Distilling Governing Laws and Source Input for Dynamical Systems from
Videos [13.084113582897965]
ビデオから解釈可能な物理法則を蒸留することで、コンピュータビジョンコミュニティへの関心が拡大した。
本稿では、記録されたビデオに基づいて、移動物体が提示するダイナミックスの明示的な支配方程式を明らかにするために、エンドツーエンドで教師なしのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T05:40:01Z) - Dynamic Visual Reasoning by Learning Differentiable Physics Models from
Video and Language [92.7638697243969]
視覚概念を協調的に学習し,映像や言語から物体の物理モデルを推定する統合フレームワークを提案する。
これは視覚認識モジュール、概念学習モジュール、微分可能な物理エンジンの3つのコンポーネントをシームレスに統合することで実現される。
論文 参考訳(メタデータ) (2021-10-28T17:59:13Z) - gradSim: Differentiable simulation for system identification and
visuomotor control [66.37288629125996]
本稿では,微分可能マルチフィジカルシミュレーションと微分可能レンダリングを活用し,3次元監督への依存を克服するフレームワークであるgradsimを提案する。
当社の統合グラフは、状態ベースの(3D)監督に頼ることなく、挑戦的なバイスモメータ制御タスクで学習を可能にします。
論文 参考訳(メタデータ) (2021-04-06T16:32:01Z) - Non-linear State-space Model Identification from Video Data using Deep
Encoders [0.0]
本稿では,高次元入力および出力データから始まる非線形状態空間同定手法を提案する。
ニューラルネットワークで表現されたエンコーダ関数を導入して再構成可能性マップを学習し、過去の入力や出力からモデル状態を予測する。
ユニットボックス内の制御可能なボールのシミュレーション環境の映像ストリームに,提案手法を適用した。
論文 参考訳(メタデータ) (2020-12-14T17:14:46Z) - Learning to Identify Physical Parameters from Video Using Differentiable
Physics [2.15242029196761]
本稿では,アクション条件付きビデオ表現ネットワーク内の物理エンジンを用いて物理潜在表現を学習する手法を提案する。
われわれのネットワークは、画像のエンコードと、ビデオやアクションシーケンスからの質量や摩擦などの物理的特性の同定を学習できることを実証する。
論文 参考訳(メタデータ) (2020-09-17T13:36:57Z) - Learning to Simulate Complex Physics with Graph Networks [68.43901833812448]
本稿では,機械学習のフレームワークとモデルの実装について紹介する。
グラフネットワーク・ベース・シミュレータ(GNS)と呼ばれる我々のフレームワークは、グラフ内のノードとして表現された粒子で物理系の状態を表現し、学習されたメッセージパスによって動的を計算します。
我々のモデルは,訓練中に数千の粒子による1段階の予測から,異なる初期条件,数千の時間ステップ,少なくとも1桁以上の粒子をテスト時に一般化できることを示す。
論文 参考訳(メタデータ) (2020-02-21T16:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。