論文の概要: VideoPDE: Unified Generative PDE Solving via Video Inpainting Diffusion Models
- arxiv url: http://arxiv.org/abs/2506.13754v2
- Date: Tue, 17 Jun 2025 02:15:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 13:08:30.137527
- Title: VideoPDE: Unified Generative PDE Solving via Video Inpainting Diffusion Models
- Title(参考訳): VideoPDE: 拡散モデルによる一元的PDE解法
- Authors: Edward Li, Zichen Wang, Jiahe Huang, Jeong Joon Park,
- Abstract要約: 本稿では,ビデオ・インペインティング拡散変換器モデルを用いて偏微分方程式(PDE)を解くための統一的な枠組みを提案する。
本研究では,細粒度,高忠実度インペイント,コンディショニングのための画素空間ビデオ拡散モデルを提案する。
提案手法は,多種多様なPDEと問題設定にまたがる高精度で汎用的なソリューションを提供し,最先端のベースラインよりも優れた性能を実現している。
- 参考スコア(独自算出の注目度): 8.189440319895823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified framework for solving partial differential equations (PDEs) using video-inpainting diffusion transformer models. Unlike existing methods that devise specialized strategies for either forward or inverse problems under full or partial observation, our approach unifies these tasks under a single, flexible generative framework. Specifically, we recast PDE-solving as a generalized inpainting problem, e.g., treating forward prediction as inferring missing spatiotemporal information of future states from initial conditions. To this end, we design a transformer-based architecture that conditions on arbitrary patterns of known data to infer missing values across time and space. Our method proposes pixel-space video diffusion models for fine-grained, high-fidelity inpainting and conditioning, while enhancing computational efficiency through hierarchical modeling. Extensive experiments show that our video inpainting-based diffusion model offers an accurate and versatile solution across a wide range of PDEs and problem setups, outperforming state-of-the-art baselines.
- Abstract(参考訳): 本稿では,ビデオ・インペインティング拡散変換器モデルを用いて偏微分方程式(PDE)を解くための統一的な枠組みを提案する。
フルあるいは部分的な観察の下で、前方または逆問題に対して専門的な戦略を考案する既存の方法とは異なり、我々のアプローチは、これらのタスクを単一のフレキシブルな生成フレームワークの下で統一する。
具体的には,PDE解決を一般的な塗装問題,例えば前方予測を初期状態から将来の状態の時空間的情報の欠如を推測するものとして再検討する。
この目的のために、既知データの任意のパターンを条件として、時間と空間にわたって欠落した値を推測するトランスフォーマーベースのアーキテクチャを設計する。
本手法は,階層的モデリングによる計算効率の向上を図りながら,細粒度,高忠実度インペイント,コンディショニングのための画素空間ビデオ拡散モデルを提案する。
広範囲のPDEと問題設定にまたがる正確かつ多目的なソリューションが,我々のビデオ塗装に基づく拡散モデルにより実現され,最先端のベースラインよりも優れた結果が得られた。
関連論文リスト
- Physics-Informed Distillation of Diffusion Models for PDE-Constrained Generation [19.734778762515468]
拡散モデルは、物理系のモデリング、特に偏微分方程式(PDE)によって支配されるものにおいて、注目を集めている。
本稿では, PDE 制約を直接拡散過程に注入するのではなく, ポストホック蒸留段階において適用する, 単純かつ効果的なポストホック蒸留法を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:17:58Z) - VISION-XL: High Definition Video Inverse Problem Solver using Latent Image Diffusion Models [58.464465016269614]
本稿では,遅延画像拡散モデルを用いた高精細ビデオ逆問題の解法を提案する。
提案手法は,NVIDIA 4090 GPUの1フレームあたり6秒未満でHD解像度の再構成を実現する。
論文 参考訳(メタデータ) (2024-11-29T08:10:49Z) - Solving Video Inverse Problems Using Image Diffusion Models [58.464465016269614]
本稿では,画像拡散モデルのみを活用する革新的なビデオ逆解法を提案する。
本手法は,映像の時間次元をバッチ次元画像拡散モデルとして扱う。
また、バッチ間の一貫性を促進するバッチ一貫性サンプリング戦略も導入しています。
論文 参考訳(メタデータ) (2024-09-04T09:48:27Z) - DiffusionPDE: Generative PDE-Solving Under Partial Observation [10.87702379899977]
生成拡散モデルを用いて偏微分方程式(PDE)を解くための一般的な枠組みを提案する。
そこで本研究では, 学習した生成先行が, 部分観察下において, 広範囲のPDEを正確に解くための多元的枠組みに導かれることを示す。
論文 参考訳(メタデータ) (2024-06-25T17:48:24Z) - VIDM: Video Implicit Diffusion Models [75.90225524502759]
拡散モデルは、高品質で多様な画像の集合を合成するための強力な生成方法として登場した。
本研究では,移動の効果を暗黙の条件でモデル化する拡散モデルに基づく映像生成手法を提案する。
我々は,空間トランケーションのサンプリング,ロバストネスペナルティ,位置群正規化などの複数の戦略を提案することにより,生成されたビデオの品質を向上させる。
論文 参考訳(メタデータ) (2022-12-01T02:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。