論文の概要: Exposure Trajectory Recovery from Motion Blur
- arxiv url: http://arxiv.org/abs/2010.02484v2
- Date: Mon, 4 Oct 2021 09:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:23:19.457333
- Title: Exposure Trajectory Recovery from Motion Blur
- Title(参考訳): 運動ブラジャーからの露光軌道回復
- Authors: Youjian Zhang, Chaoyue Wang, Stephen J. Maybank, Dacheng Tao
- Abstract要約: ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
- 参考スコア(独自算出の注目度): 90.75092808213371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur in dynamic scenes is an important yet challenging research topic.
Recently, deep learning methods have achieved impressive performance for
dynamic scene deblurring. However, the motion information contained in a blurry
image has yet to be fully explored and accurately formulated because: (i) the
ground truth of dynamic motion is difficult to obtain; (ii) the temporal
ordering is destroyed during the exposure; and (iii) the motion estimation from
a blurry image is highly ill-posed. By revisiting the principle of camera
exposure, motion blur can be described by the relative motions of sharp content
with respect to each exposed position. In this paper, we define exposure
trajectories, which represent the motion information contained in a blurry
image and explain the causes of motion blur. A novel motion offset estimation
framework is proposed to model pixel-wise displacements of the latent sharp
image at multiple timepoints. Under mild constraints, our method can recover
dense, (non-)linear exposure trajectories, which significantly reduce temporal
disorder and ill-posed problems. Finally, experiments demonstrate that the
recovered exposure trajectories not only capture accurate and interpretable
motion information from a blurry image, but also benefit motion-aware image
deblurring and warping-based video extraction tasks. Codes are available on
https://github.com/yjzhang96/Motion-ETR.
- Abstract(参考訳): 動的シーンにおける動きのぼやけは重要な研究課題である。
近年,動的シーンデブロアリングにおいて,深層学習が優れた性能を発揮している。
しかし、ぼやけた画像に含まれる動き情報は、下記のように十分に探索され、正確に定式化されていない。
(i)動力学的運動の基盤的真理を得るのが困難である。
(ii)露出中に時間順序が破壊される。
(iii)ぼやけた画像からの動作推定が極めて不適切である。
カメラ露光の原理を再検討することにより、各露光位置に対するシャープコンテンツの相対運動によって動きのぼかしを記述することができる。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義し、動きのぼやけの原因を説明する。
複数の時点における潜在シャープ画像の画素方向変位をモデル化するために,新しい動きオフセット推定フレームワークを提案する。
軽度制約下では,高密度(非線形)露光軌跡の復元が可能であり,時間的障害や異常な問題を大幅に軽減できる。
最後に, 復元された露光軌跡は, ぼやけた画像から正確に解釈可能な動き情報をキャプチャするだけでなく, 動き認識画像のデブラリングやゆがみに基づく映像抽出作業にも有用であることを示す。
コードはhttps://github.com/yjzhang96/Motion-ETRで公開されている。
関連論文リスト
- Motion Blur Decomposition with Cross-shutter Guidance [33.72961622720793]
動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:55:40Z) - SMURF: Continuous Dynamics for Motion-Deblurring Radiance Fields [14.681688453270523]
本稿では,ニューラル常微分方程式(Neural-ODE)を用いて連続カメラの動きをモデル化する新しい手法である,逐次的動き理解放射場(SMURF)を提案する。
我々のモデルは、ベンチマークデータセットに対して厳密に評価され、定量的かつ定性的に最先端のパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-03-12T11:32:57Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - A Method For Adding Motion-Blur on Arbitrary Objects By using
Auto-Segmentation and Color Compensation Techniques [6.982738885923204]
本稿では,物体ごとの運動のぼかしを付加する統合フレームワークを提案する。
この方法では、複数のフレームを動きのぼやけなく捕捉し、対象物体に動きのぼやけを生じさせるように蓄積する。
論文 参考訳(メタデータ) (2021-09-22T05:52:27Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。