論文の概要: GeoDiffMM: Geometry-Guided Conditional Diffusion for Motion Magnification
- arxiv url: http://arxiv.org/abs/2512.08325v1
- Date: Tue, 09 Dec 2025 07:40:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.862721
- Title: GeoDiffMM: Geometry-Guided Conditional Diffusion for Motion Magnification
- Title(参考訳): GeoDiffMM:運動拡大のための幾何誘導条件拡散
- Authors: Xuedeng Liu, Jiabao Guo, Zheng Zhang, Fei Wang, Zhi Liu, Dan Guo,
- Abstract要約: ビデオモーション・マグニフィケーション(VMM)は微妙なマクロな動きを知覚可能なレベルまで増幅する。
幾何学的キューとして光学フローを前提とした新しいフレームワークであるGeoDiffMMを提案する。
我々はGeoDiffMMが最先端の手法より優れ、動きの倍率を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 24.70713855957894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video Motion Magnification (VMM) amplifies subtle macroscopic motions to a perceptible level. Recently, existing mainstream Eulerian approaches address amplification-induced noise via decoupling representation learning such as texture, shape and frequancey schemes, but they still struggle to separate photon noise from true micro-motion when motion displacements are very small. We propose GeoDiffMM, a novel diffusion-based Lagrangian VMM framework conditioned on optical flow as a geometric cue, enabling structurally consistent motion magnification. Specifically, we design a Noise-free Optical Flow Augmentation strategy that synthesizes diverse nonrigid motion fields without photon noise as supervision, helping the model learn more accurate geometry-aware optial flow and generalize better. Next, we develop a Diffusion Motion Magnifier that conditions the denoising process on (i) optical flow as a geometry prior and (ii) a learnable magnification factor controlling magnitude, thereby selectively amplifying motion components consistent with scene semantics and structure while suppressing content-irrelevant perturbations. Finally, we perform Flow-based Video Synthesis to map the amplified motion back to the image domain with high fidelity. Extensive experiments on real and synthetic datasets show that GeoDiffMM outperforms state-of-the-art methods and significantly improves motion magnification.
- Abstract(参考訳): ビデオモーション・マグニフィケーション(VMM)は微妙なマクロな動きを知覚可能なレベルまで増幅する。
近年では、テクスチャ、形状、周波数といった表現学習を分離することで増幅ノイズに対処しているが、運動変位が非常に小さい場合、光子ノイズを真のマイクロモーションから切り離すことに苦慮している。
幾何学的キューとして光学フローを条件とした新しい拡散型ラグランジアンVMMフレームワークであるGeoDiffMMを提案する。
具体的には、光子ノイズを監督しない多種多様な非剛性運動場を合成するノイズフリー光フロー拡張戦略を設計し、より正確な幾何認識オプショナルフローを学習し、より一般化するのに役立つ。
次に,ディフュージョン・モーション・マグニエータを開発し,ディフュージョン・プロセスの制御を行う。
一 幾何の前及び後続の光学的流れ
二 内容非関連摂動を抑えつつ、シーンの意味や構造に整合した動き成分を選択的に増幅する学習可能な拡大係数。
最後に、フローベースビデオ合成を行い、増幅された動きを高忠実度の画像領域にマッピングする。
実データおよび合成データセットの大規模な実験により、GeoDiffMMは最先端の手法より優れ、動きの倍率を大幅に向上することが示された。
関連論文リスト
- MIORe & VAR-MIORe: Benchmarks to Push the Boundaries of Restoration [53.180212987726556]
動作回復ベンチマークの限界に対処する2つの新しいマルチタスクデータセットであるMIOReとVAR-MIOReを紹介する。
私たちのデータセットは、複雑なエゴカメラの動き、動的マルチオブジェクト相互作用、深さ依存のぼかし効果など、幅広い動きシナリオを捉えています。
論文 参考訳(メタデータ) (2025-09-08T15:34:31Z) - LightMotion: A Light and Tuning-free Method for Simulating Camera Motion in Video Generation [56.64004196498026]
LightMotionは、ビデオ生成におけるカメラモーションをシミュレートするための軽量かつチューニング不要な方法である。
潜在空間で操作すると、追加の微調整、塗装、深さ推定がなくなる。
論文 参考訳(メタデータ) (2025-03-09T08:28:40Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - Frequency Decoupling for Motion Magnification via Multi-Level Isomorphic Architecture [42.51987004849891]
Video Motion Magnificationは、マクロ世界の物体の微妙で知覚できない動き情報を明らかにすることを目的としている。
動作拡大のための周波数デカップリングの新しいパラダイムであるFD4MMについて述べる。
FD4MMはFLOPを1.63$times$に削減し、推論速度を1.68$times$に向上させる。
論文 参考訳(メタデータ) (2024-03-12T06:07:29Z) - EulerMormer: Robust Eulerian Motion Magnification via Dynamic Filtering
within Transformer [30.470336098766765]
ビデオモーション・マグニフィケーション(VMM)は、人間の視覚知覚能力の解像度限界を破ることを目的としている。
本稿では,静的場適応型復調を実現するための新しい動的フィルタリング手法を提案する。
我々は、ユーラーモーマーがユーレリア視点からより堅牢なビデオモーション倍率を達成するための広範な実験を実証する。
論文 参考訳(メタデータ) (2023-12-07T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。