論文の概要: Motion-Aware Adaptive Pixel Pruning for Efficient Local Motion Deblurring
- arxiv url: http://arxiv.org/abs/2507.07708v1
- Date: Thu, 10 Jul 2025 12:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.398293
- Title: Motion-Aware Adaptive Pixel Pruning for Efficient Local Motion Deblurring
- Title(参考訳): 能率な局所運動障害に対する動き認識型適応型画素プルーニング
- Authors: Wei Shang, Dongwei Ren, Wanying Zhang, Pengfei Zhu, Qinghua Hu, Wangmeng Zuo,
- Abstract要約: 画像内のぼやけた領域を識別するトレーニング可能なマスク予測器を提案する。
また、相対的な画素変位を運動軌跡に変換するフレーム内運動解析器を開発した。
提案手法は, 再建損失, 再生損失, および注釈付きぼかしマスクで導かれるマスク損失の組合せを用いて, エンドツーエンドで訓練する。
- 参考スコア(独自算出の注目度): 87.56382172827526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local motion blur in digital images originates from the relative motion between dynamic objects and static imaging systems during exposure. Existing deblurring methods face significant challenges in addressing this problem due to their inefficient allocation of computational resources and inadequate handling of spatially varying blur patterns. To overcome these limitations, we first propose a trainable mask predictor that identifies blurred regions in the image. During training, we employ blur masks to exclude sharp regions. For inference optimization, we implement structural reparameterization by converting $3\times 3$ convolutions to computationally efficient $1\times 1$ convolutions, enabling pixel-level pruning of sharp areas to reduce computation. Second, we develop an intra-frame motion analyzer that translates relative pixel displacements into motion trajectories, establishing adaptive guidance for region-specific blur restoration. Our method is trained end-to-end using a combination of reconstruction loss, reblur loss, and mask loss guided by annotated blur masks. Extensive experiments demonstrate superior performance over state-of-the-art methods on both local and global blur datasets while reducing FLOPs by 49\% compared to SOTA models (e.g., LMD-ViT). The source code is available at https://github.com/shangwei5/M2AENet.
- Abstract(参考訳): デジタル画像の局所的な動きのぼかしは、露光中の動的物体と静的イメージングシステムの間の相対的な動きに由来する。
既存のデブロアリング手法は、計算資源の非効率な割り当てと空間的に変化するブラーパターンの不適切な処理により、この問題に対処する上で大きな課題に直面している。
これらの制限を克服するために、まず、画像内のぼやけた領域を識別するトレーニング可能なマスク予測器を提案する。
トレーニング中、鋭い領域を除外するためにぼやけたマスクを使用します。
推論最適化のために,3-times 3$畳み込みを計算効率の良い1-times 1$畳み込みに変換することにより,シャープ領域のピクセルレベルのプルーニングを可能とし,計算量を削減する。
第2に、相対的な画素変位を運動軌跡に変換するフレーム内動作解析器を開発し、領域固有のぼかし復元のための適応的なガイダンスを確立する。
提案手法は, 再建損失, 再生損失, および注釈付きぼかしマスクで案内されたマスク損失の組合せを用いて, エンドツーエンドで訓練する。
局所的および大域的ブラーデータセットでは,SOTAモデル(例: LMD-ViT)と比較してFLOPを49 %削減し,最先端の手法よりも優れた性能を示した。
ソースコードはhttps://github.com/shangwei5/M2AENetで入手できる。
関連論文リスト
- High-Frequency Prior-Driven Adaptive Masking for Accelerating Image Super-Resolution [87.56382172827526]
高周波領域は再建に最も重要である。
本稿では,アクセラレーションのためのトレーニング不要適応マスキングモジュールを提案する。
本手法は,最先端モデルのFLOPを24~43%削減する。
論文 参考訳(メタデータ) (2025-05-11T13:18:03Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Real-World Efficient Blind Motion Deblurring via Blur Pixel Discretization [45.20189929583484]
我々は,デブロアリング(回帰)タスクを,画素の離散化と離散連続変換タスクに分解する。
具体的には,ぼやけた画素を識別して画像残差誤差を生成し,連続的な形状に変換する。
論文 参考訳(メタデータ) (2024-04-18T13:22:56Z) - Adaptive Window Pruning for Efficient Local Motion Deblurring [81.35217764881048]
局所的な動きのぼかしは、露光中の移動物体と静止背景との混合により、実世界の写真で一般的に発生する。
既存の画像のデブロアリング手法は主にグローバルなデブロアリングに焦点を当てている。
本稿では,高解像度の局所的ぼやけた画像を適応的かつ効率的に復元することを目的とする。
論文 参考訳(メタデータ) (2023-06-25T15:24:00Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。