論文の概要: What about gravity in video generation? Post-Training Newton's Laws with Verifiable Rewards
- arxiv url: http://arxiv.org/abs/2512.00425v1
- Date: Sat, 29 Nov 2025 10:04:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.238615
- Title: What about gravity in video generation? Post-Training Newton's Laws with Verifiable Rewards
- Title(参考訳): ビデオ生成における重力についてはどうか? ニュートンの法則の検証
- Authors: Minh-Quan Le, Yuanzhi Zhu, Vicky Kalogeiton, Dimitris Samaras,
- Abstract要約: ビデオ拡散モデルは視覚的に魅力的なクリップを合成することができるが、基本的な物理法則に違反することが多い。
我々は$textttNewtonRewards$を提案し、$textitverible rewards$をベースとした、ビデオ生成のための最初の物理地上学習フレームワークである。
- 参考スコア(独自算出の注目度): 49.02795965814016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent video diffusion models can synthesize visually compelling clips, yet often violate basic physical laws-objects float, accelerations drift, and collisions behave inconsistently-revealing a persistent gap between visual realism and physical realism. We propose $\texttt{NewtonRewards}$, the first physics-grounded post-training framework for video generation based on $\textit{verifiable rewards}$. Instead of relying on human or VLM feedback, $\texttt{NewtonRewards}$ extracts $\textit{measurable proxies}$ from generated videos using frozen utility models: optical flow serves as a proxy for velocity, while high-level appearance features serve as a proxy for mass. These proxies enable explicit enforcement of Newtonian structure through two complementary rewards: a Newtonian kinematic constraint enforcing constant-acceleration dynamics, and a mass conservation reward preventing trivial, degenerate solutions. We evaluate $\texttt{NewtonRewards}$ on five Newtonian Motion Primitives (free fall, horizontal/parabolic throw, and ramp sliding down/up) using our newly constructed large-scale benchmark, $\texttt{NewtonBench-60K}$. Across all primitives in visual and physics metrics, $\texttt{NewtonRewards}$ consistently improves physical plausibility, motion smoothness, and temporal coherence over prior post-training methods. It further maintains strong performance under out-of-distribution shifts in height, speed, and friction. Our results show that physics-grounded verifiable rewards offer a scalable path toward physics-aware video generation.
- Abstract(参考訳): 最近のビデオ拡散モデルは、視覚的に魅力的なクリップを合成することができるが、基本的な物理法則に違反することが多い。
我々は$\textt{NewtonRewards}$を提案する。
人やVLMのフィードバックに頼る代わりに、$\texttt{NewtonRewards}$ extracts $\textit{measurable proxies}$をフリーズユーティリティモデルを使って生成されたビデオから抽出する。
これらのプロキシは、2つの相補的な報酬によってニュートン構造を明示的に強制することができる: 定数加速力学を強制するニュートンの運動論的制約と、自明で縮退した解を阻止する質量保存報酬である。
新たに構築した大規模ベンチマークである$\texttt{NewtonBench-60K}$を用いて,Newtonian Motion Primitives (free fall, horizontal/parabolic throw, and ramp slide down/up)に対して$\texttt{NewtonRewards}$を評価する。
視覚的および物理学的メトリクスのすべてのプリミティブにおいて、$\texttt{NewtonRewards}$は、事前のトレーニング方法よりも、物理的可視性、運動の滑らかさ、時間的コヒーレンスを一貫して改善する。
さらに、高さ、速度、摩擦の分布外シフトの下での強い性能を維持している。
以上の結果から,物理を基盤とした検証可能な報酬は,物理を意識したビデオ生成に向けたスケーラブルな道筋を提供することがわかった。
関連論文リスト
- PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - Physics-Grounded Motion Forecasting via Equation Discovery for Trajectory-Guided Image-to-Video Generation [54.42523027597904]
物理グラウンド映像予測のためのシンボル回帰と軌跡誘導映像(I2V)モデルを統合する新しいフレームワークを提案する。
提案手法は,入力ビデオから運動軌跡を抽出し,検索に基づく事前学習機構を用いて記号回帰を向上し,運動方程式を発見し,物理的に正確な将来の軌跡を予測する。
論文 参考訳(メタデータ) (2025-07-09T13:28:42Z) - Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals [18.86902152614664]
映像生成のための制御信号として物理力を用いる。
そこで我々は,局所的な力によって画像と対話できる力のプロンプトを提案する。
これらの力のプロンプトによって、ビデオが物理的な制御信号に現実的に反応できることを実証する。
論文 参考訳(メタデータ) (2025-05-26T01:04:02Z) - MotionCraft: Physics-based Zero-Shot Video Generation [22.33113030344355]
MotionCraftは物理ベースのリアルなビデオを作るためのゼロショットビデオジェネレータだ。
安定拡散のような画像拡散モデルのノイズ潜時空間を光学的流れを適用することにより、MotionCraftがワープできることが示される。
我々は,この手法を最先端のText2Video-Zeroレポートと比較し,質的,定量的に改善した。
論文 参考訳(メタデータ) (2024-05-22T11:44:57Z) - Machine-Learning Non-Conservative Dynamics for New-Physics Detection [69.45430691069974]
未知の力によって支配される軌道を考えると、ニューラル・ニュー物理検出器(NNPhD)は新しい物理を検出することを目的としています。
我々はNNPhDが、力場を保守的かつ非保守的成分に分解することで、新しい物理学の発見に成功したことを実証する。
また,NNPhDと積分器の結合が,減衰二重振り子の将来を予測する従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-31T18:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。