論文の概要: Affine-modeled video extraction from a single motion blurred image
- arxiv url: http://arxiv.org/abs/2104.03777v1
- Date: Thu, 8 Apr 2021 13:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:04:17.323042
- Title: Affine-modeled video extraction from a single motion blurred image
- Title(参考訳): Affine-modeled video extract from a single motion blurred image
- Authors: Daoyu Li, Liheng Bian, and Jun Zhang
- Abstract要約: 動き鈍化画像は、露光時間上の複数のシャープフレームの時間平均です。
本研究では,アフィンモーションモデリングを用いた一般化ビデオ抽出手法について報告する。
公開データセットと実際のキャプチャデータの両方の実験は、報告されたテクニックの最先端のパフォーマンスを検証する。
- 参考スコア(独自算出の注目度): 3.0080996413230667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A motion-blurred image is the temporal average of multiple sharp frames over
the exposure time. Recovering these sharp video frames from a single blurred
image is nontrivial, due to not only its strong ill-posedness, but also various
types of complex motion in reality such as rotation and motion in depth. In
this work, we report a generalized video extraction method using the affine
motion modeling, enabling to tackle multiple types of complex motion and their
mixing. In its workflow, the moving objects are first segemented in the alpha
channel. This allows separate recovery of different objects with different
motion. Then, we reduce the variable space by modeling each video clip as a
series of affine transformations of a reference frame, and introduce the
$l0$-norm total variation regularization to attenuate the ringing artifact. The
differentiable affine operators are employed to realize gradient-descent
optimization of the affine model, which follows a novel coarse-to-fine strategy
to further reduce artifacts. As a result, both the affine parameters and sharp
reference image are retrieved. They are finally input into stepwise affine
transformation to recover the sharp video frames. The stepwise retrieval
maintains the nature to bypass the frame order ambiguity. Experiments on both
public datasets and real captured data validate the state-of-the-art
performance of the reported technique.
- Abstract(参考訳): モーションブルー画像は露光時間における複数のシャープフレームの時間平均である。
これらのシャープなビデオフレームを単一のぼやけた画像から復元することは、その強い不適切さだけでなく、回転や深度での運動といった現実における様々な複雑な動きによって、非自明である。
本稿では,アフィン運動モデルを用いた一般化された映像抽出法について述べる。
そのワークフローでは、動くオブジェクトはアルファチャネルで最初にセジメントされる。
これにより、異なる動きの異なる物体を分離して回収することができる。
次に、各ビデオクリップを参照フレームの一連のアフィン変換としてモデル化することにより、可変空間を縮小し、リングアーティファクトを減衰させるために、$l0$-normの総変分正規化を導入する。
微分可能なアフィン作用素はアフィンモデルの勾配-蛍光最適化を実現するために用いられ、これはアーティファクトをさらに削減するための新しい粗大な戦略に従う。
その結果、アフィンパラメータとシャープ参照画像の両方が検索される。
最終的にステップワイズアフィン変換に入力され、シャープなビデオフレームを復元する。
ステップワイズ検索はフレームオーダーの曖昧さをバイパスする性質を維持する。
公開データセットと実際のキャプチャデータの両方の実験は、報告されたテクニックの最先端のパフォーマンスを検証する。
関連論文リスト
- Image Motion Blur Removal in the Temporal Dimension with Video Diffusion Models [3.052019331122618]
本研究では,動きのぼかしを時間的平均化現象として扱う新しい単一像デブロアリング手法を提案する。
私たちの中心となるイノベーションは、トレーニング済みの動画拡散トランスフォーマーモデルを利用して、多様な動きのダイナミクスを捉えることです。
合成および実世界のデータセットにおける実験結果から,本手法は複雑な動きのぼかしシナリオを損なう場合,既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-01-22T03:01:54Z) - Shuffled Autoregression For Motion Interpolation [53.61556200049156]
この作業は、モーションタスクのためのディープラーニングソリューションを提供することを目的としている。
本稿では,自己回帰を任意の(シャッフルされた)順序で生成するために拡張する,emphShuffled AutoRegressionと呼ばれる新しいフレームワークを提案する。
また,3つのステージを終端から終端の時空間運動変換器に組み込んだ依存グラフの構築手法を提案する。
論文 参考訳(メタデータ) (2023-06-10T07:14:59Z) - Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance [83.25826307000717]
単一の動き赤画像から詳細な動きを復元する際の課題について検討する。
既存の解法では、各領域の運動のあいまいさを考慮せずに単一の画像列を推定する。
本稿では、このような動きのあいまいさを明示的に説明し、複数の可算解をシャープな詳細で生成することができる。
論文 参考訳(メタデータ) (2022-07-20T18:05:53Z) - Non-linear Motion Estimation for Video Frame Interpolation using
Space-time Convolutions [18.47978862083129]
ビデオフレームは、ビデオ内の2つの連続するフレーム間で1つまたは複数のフレームを合成することを目的としている。
いくつかの古い研究は、ビデオフレーム間のピクセルごとの線形運動を仮定することでこの問題に対処した。
本稿では,使用すべき動作モデルを適応的に選択可能な時空間畳み込みネットワークを用いて,画素あたりの動きを近似することを提案する。
論文 参考訳(メタデータ) (2022-01-27T09:49:23Z) - Image Animation with Keypoint Mask [0.0]
モーショントランスファー(Motion Transfer)は、特定の駆動ビデオからの動作に応じて、単一のソース画像の将来のビデオフレームを合成するタスクである。
本研究では,キーポイントのヒートマップから,明示的な動作表現を伴わずに構造を抽出する。
そして、画像と映像から構造を抽出し、深部ジェネレータにより映像に応じて映像をワープする。
論文 参考訳(メタデータ) (2021-12-20T11:35:06Z) - Recurrent Video Deblurring with Blur-Invariant Motion Estimation and
Pixel Volumes [14.384467317051831]
本稿では,複数のビデオフレームから情報を効果的に集約することで,映像をブルーリングする2つの新しい手法を提案する。
まず、ぼやけたフレーム間の動き推定精度を向上させるために、ぼやけた不変な動き推定学習を提案する。
第二に、動き補正のために、推定した動きを歪ませてフレームを整列する代わりに、被写体がシャープな画素を含む画素体積を用いて、動き推定誤差を解消する。
論文 参考訳(メタデータ) (2021-08-23T07:36:49Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring [92.40655035360729]
ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。
特徴空間におけるボケフレーム間の空間的対応を学習する新しい暗黙的手法を提案する。
提案手法は,新たに収集したビデオデブレーション用ハイフレームレート(1000fps)データセットとともに,広く採用されているDVDデータセット上で評価される。
論文 参考訳(メタデータ) (2021-03-07T04:33:13Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。