論文の概要: PMR: Physical Model-Driven Multi-Stage Restoration of Turbulent Dynamic Videos
- arxiv url: http://arxiv.org/abs/2508.00406v1
- Date: Fri, 01 Aug 2025 08:06:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.786488
- Title: PMR: Physical Model-Driven Multi-Stage Restoration of Turbulent Dynamic Videos
- Title(参考訳): PMR:乱流動画像の物理モデル駆動多段階復元
- Authors: Tao Wu, Jingyuan Ye, Ying Fu,
- Abstract要約: 本研究では, 乱流強度, 光学的流れ, ダイナミック領域の割合を組み合わせた動的効率指数(DEI$)を導入し, 変動する乱流条件下での映像動的強度を正確に定量化する。
また,幾何安定化のためのtextbfde-tilting,テキストbfmotionセグメンテーションの強化,品質回復のための textbfde-blurring の3段階からなる物理モデル駆動型多段階ビデオ再生(PMR$)フレームワークを提案する。
PMR$は軽量のバックボーンとステージワイドのジョイントトレーニングを採用して、効率性と高い修復性を確保している。
- 参考スコア(独自算出の注目度): 9.48544376032391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Geometric distortions and blurring caused by atmospheric turbulence degrade the quality of long-range dynamic scene videos. Existing methods struggle with restoring edge details and eliminating mixed distortions, especially under conditions of strong turbulence and complex dynamics. To address these challenges, we introduce a Dynamic Efficiency Index ($DEI$), which combines turbulence intensity, optical flow, and proportions of dynamic regions to accurately quantify video dynamic intensity under varying turbulence conditions and provide a high-dynamic turbulence training dataset. Additionally, we propose a Physical Model-Driven Multi-Stage Video Restoration ($PMR$) framework that consists of three stages: \textbf{de-tilting} for geometric stabilization, \textbf{motion segmentation enhancement} for dynamic region refinement, and \textbf{de-blurring} for quality restoration. $PMR$ employs lightweight backbones and stage-wise joint training to ensure both efficiency and high restoration quality. Experimental results demonstrate that the proposed method effectively suppresses motion trailing artifacts, restores edge details and exhibits strong generalization capability, especially in real-world scenarios characterized by high-turbulence and complex dynamics. We will make the code and datasets openly available.
- Abstract(参考訳): 大気乱流による幾何学的歪みとぼかしは、長距離ダイナミックシーンビデオの品質を低下させる。
既存の手法は、特に強い乱流と複雑な力学の条件下で、エッジの詳細の復元と混合歪みの除去に苦労する。
これらの課題に対処するために、動的効率指数(DEI$)を導入し、乱流強度、光学的流れ、ダイナミック領域の比率を組み合わせて、変動する乱流条件下での映像動的強度を正確に定量化し、高ダイナミックな乱流訓練データセットを提供する。
さらに、幾何安定化のための \textbf{de-tilting} 、動的領域改良のための \textbf{motion segmentation enhancement} 、品質回復のための \textbf{de-blurring} の3段階からなる物理モデル駆動型多段階ビデオ再生(PMR$)フレームワークを提案する。
PMR$は軽量のバックボーンとステージワイドのジョイントトレーニングを採用して、効率性と高い修復性を確保している。
実験により, 提案手法は, 高乱流と複雑な力学を特徴とする実世界のシナリオにおいて, 動き追従アーティファクトを効果的に抑制し, エッジの詳細を復元し, 強力な一般化能力を示すことを示す。
コードとデータセットを公開します。
関連論文リスト
- Laplacian Analysis Meets Dynamics Modelling: Gaussian Splatting for 4D Reconstruction [9.911802466255653]
本稿では,ハイブリッドな明示的関数を持つ動的3DGSフレームワークを提案する。
本手法は, 複雑な動的シーンを再構築する際の最先端性能を実証し, 再現精度を向上する。
論文 参考訳(メタデータ) (2025-08-07T01:39:29Z) - VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - HAIF-GS: Hierarchical and Induced Flow-Guided Gaussian Splatting for Dynamic Scene [11.906835503107189]
本稿では,スパースアンカー駆動変形による構造的・一貫した動的モデリングを実現する統合フレームワークHAIF-GSを提案する。
HAIF-GSは, レンダリング品質, 時間的コヒーレンス, 再構成効率において, 従来の動的3DGS法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-06-11T08:45:08Z) - RAGME: Retrieval Augmented Video Generation for Enhanced Motion Realism [73.38167494118746]
生成ビデオにおける動きのリアリズムを改善するための枠組みを提案する。
生成フェーズにおける検索機構の導入を提唱する。
私たちのパイプラインは、どんなテキスト間拡散モデルにも適用できるように設計されています。
論文 参考訳(メタデータ) (2025-04-09T08:14:05Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - Turb-Seg-Res: A Segment-then-Restore Pipeline for Dynamic Videos with Atmospheric Turbulence [10.8380383565446]
本稿では,乱流環境における動的シーンの映像を復元するための,最初のセグメント列復元パイプラインを提案する。
教師なしモーションセグメンテーション法による平均光学的流れを利用して、復元前に動的および静的なシーン成分を分離する。
既存の復元手法と比較し,幾何学的歪みのほとんどを復元し,映像のシャープネスを高める。
論文 参考訳(メタデータ) (2024-04-21T10:28:34Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Single Frame Atmospheric Turbulence Mitigation: A Benchmark Study and A
New Physics-Inspired Transformer Model [82.23276183684001]
本研究では,大気乱流の画像化のための物理インスピレーション付き変圧器モデルを提案する。
提案ネットワークは変圧器ブロックのパワーを利用して動的乱流歪みマップを共同で抽出する。
そこで本研究では,従来の客観的指標と,テキスト認識精度を用いたタスク駆動計測の両方で評価可能な,実世界の乱流データセットを新たに2つ提示する。
論文 参考訳(メタデータ) (2022-07-20T17:09:16Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Image Reconstruction of Static and Dynamic Scenes through Anisoplanatic
Turbulence [1.6114012813668934]
静的および動的シーケンスの両方で大気乱流を緩和する統一的な手法を提案する。
我々は,新しい時空間非局所平均化手法を用いることで,既存手法と比較して優れた結果を得ることができる。
論文 参考訳(メタデータ) (2020-08-31T19:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。