論文の概要: MoTDiff: High-resolution Motion Trajectory estimation from a single blurred image using Diffusion models
- arxiv url: http://arxiv.org/abs/2510.26173v1
- Date: Thu, 30 Oct 2025 06:24:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.681035
- Title: MoTDiff: High-resolution Motion Trajectory estimation from a single blurred image using Diffusion models
- Title(参考訳): MoTDiff:拡散モデルを用いた1つのぼやけた画像からの高分解能運動軌道推定
- Authors: Wontae Choi, Jaelin Lee, Hyung Sup Yun, Byeungwoo Jeon, Il Yong Chun,
- Abstract要約: 拡散モデル(MoTDiff)を用いた第1次高分解能(HR)運動軌道推定フレームワークを提案する。
提案したMoTDiffは,1)1つのぼやけた画像から抽出したマルチスケール特徴写像を条件として利用する新しい条件拡散フレームワークと,2)微細な運動軌跡の正確な同定を促進するための新たな訓練方法とからなる。
- 参考スコア(独自算出の注目度): 6.960373597765549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate estimation of motion information is crucial in diverse computational imaging and computer vision applications. Researchers have investigated various methods to extract motion information from a single blurred image, including blur kernels and optical flow. However, existing motion representations are often of low quality, i.e., coarse-grained and inaccurate. In this paper, we propose the first high-resolution (HR) Motion Trajectory estimation framework using Diffusion models (MoTDiff). Different from existing motion representations, we aim to estimate an HR motion trajectory with high-quality from a single motion-blurred image. The proposed MoTDiff consists of two key components: 1) a new conditional diffusion framework that uses multi-scale feature maps extracted from a single blurred image as a condition, and 2) a new training method that can promote precise identification of a fine-grained motion trajectory, consistent estimation of overall shape and position of a motion path, and pixel connectivity along a motion trajectory. Our experiments demonstrate that the proposed MoTDiff can outperform state-of-the-art methods in both blind image deblurring and coded exposure photography applications.
- Abstract(参考訳): 動き情報の正確な推定は、様々な計算画像やコンピュータビジョンの応用において重要である。
研究者は、ぼやけたカーネルや光の流れなど、単一のぼやけた画像から動き情報を抽出する様々な方法を研究している。
しかし、既存の動き表現は、しばしば低品質、すなわち粗粒度で不正確である。
本稿では,拡散モデル(MoTDiff)を用いた第1次高分解能(HR)運動軌道推定フレームワークを提案する。
既存の動き表現と異なり、単一の動きブル画像から高画質のHR運動軌跡を推定することを目指している。
提案したMoTDiffは2つのキーコンポーネントで構成されている。
1 単一のぼやけた画像から抽出したマルチスケール特徴写像を条件として用いた新しい条件拡散フレームワーク
2 微粒な運動軌跡の正確な識別、運動経路の全体形状と位置の一貫した推定、及び運動軌跡に沿った画素接続を促進できる新しい訓練方法。
実験により,提案したMoTDiffは,ブラインド画像のデブロアリングと符号化された露光画像アプリケーションにおいて,最先端の手法より優れていることが示された。
関連論文リスト
- Image as an IMU: Estimating Camera Motion from a Single Motion-Blurred Image [14.485182089870928]
本研究では,動きのぼかしを動き推定のためのリッチキューとして活用する新しいフレームワークを提案する。
提案手法は, 単一動画像から直接, 濃密な運動流場と単眼深度マップを推定することにより機能する。
本手法は,高速でアグレッシブなカメラの動きを強く捉えるIMUライクな計測法である。
論文 参考訳(メタデータ) (2025-03-21T17:58:56Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z) - Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance [83.25826307000717]
単一の動き赤画像から詳細な動きを復元する際の課題について検討する。
既存の解法では、各領域の運動のあいまいさを考慮せずに単一の画像列を推定する。
本稿では、このような動きのあいまいさを明示的に説明し、複数の可算解をシャープな詳細で生成することができる。
論文 参考訳(メタデータ) (2022-07-20T18:05:53Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。