論文の概要: Optical Flow Estimation from a Single Motion-blurred Image
- arxiv url: http://arxiv.org/abs/2103.02996v1
- Date: Thu, 4 Mar 2021 12:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 16:22:02.944007
- Title: Optical Flow Estimation from a Single Motion-blurred Image
- Title(参考訳): 単一運動破砕画像からの光流量推定
- Authors: Dawit Mureja Argaw, Junsik Kim, Francois Rameau, Jae Won Cho, In So
Kweon
- Abstract要約: 画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 66.2061278123057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In most of computer vision applications, motion blur is regarded as an
undesirable artifact. However, it has been shown that motion blur in an image
may have practical interests in fundamental computer vision problems. In this
work, we propose a novel framework to estimate optical flow from a single
motion-blurred image in an end-to-end manner. We design our network with
transformer networks to learn globally and locally varying motions from encoded
features of a motion-blurred input, and decode left and right frame features
without explicit frame supervision. A flow estimator network is then used to
estimate optical flow from the decoded features in a coarse-to-fine manner. We
qualitatively and quantitatively evaluate our model through a large set of
experiments on synthetic and real motion-blur datasets. We also provide
in-depth analysis of our model in connection with related approaches to
highlight the effectiveness and favorability of our approach. Furthermore, we
showcase the applicability of the flow estimated by our method on deblurring
and moving object segmentation tasks.
- Abstract(参考訳): ほとんどのコンピュータビジョンアプリケーションでは、動きのぼやけは望ましくない人工物と見なされる。
しかし、画像内の動きのぼやけは、基本的なコンピュータビジョン問題に実際的な関心を持つ可能性があることが示されている。
そこで本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
ネットワークをトランスフォーマーネットワークで設計し,動きブレート入力の符号化特徴からグローバルおよび局所的な動きを学習し,明示的なフレーム監督を伴わずに左右のフレーム特徴をデコードする。
次に、フロー推定ネットワークを用いて、デコードされた特徴から光学的流れを粗い方法で推定する。
合成および実動ブルールデータセットに関する大規模な実験を通じて、モデルを定性的かつ定量的に評価します。
また、関連するアプローチに関連するモデルの詳細な分析を行い、アプローチの有効性と有利性を強調します。
さらに,本手法で推定したオブジェクト分割タスクの解読と移動におけるフローの適用性について述べる。
関連論文リスト
- Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Self-Supervised Motion Magnification by Backpropagating Through Optical
Flow [16.80592879244362]
本稿では,映像中の微妙な動きを拡大する自己教師型手法を提案する。
我々は、その新しい光学フローが所望の量でスケールするようにビデオを操作する。
本稿では、生成した映像の光学的流れを推定し、与えられた拡大係数から逸脱した場合の距離をペナルティ化する損失関数を提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:51Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。