論文の概要: Optical Flow Estimation via Motion Feature Recovery
- arxiv url: http://arxiv.org/abs/2101.06333v1
- Date: Sat, 16 Jan 2021 00:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 04:32:26.482465
- Title: Optical Flow Estimation via Motion Feature Recovery
- Title(参考訳): 運動特徴回復による光フロー推定
- Authors: Yang Jiao, Guangming Shi and Trac D. Tran
- Abstract要約: 本稿では, コスト削減のために, 繰り返し動作特徴回復法 (MFR) を提案する。
各MFRイテレーションにおいて、元の動き特徴からの無効なエントリは、まず現在の流れに基づいて決定される。
最終的な光学フローは、回復した運動特徴から復号される。
- 参考スコア(独自算出の注目度): 36.8124878506248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation with occlusion or large displacement is a problematic
challenge due to the lost of corresponding pixels between consecutive frames.
In this paper, we discover that the lost information is related to a large
quantity of motion features (more than 40%) computed from the popular
discriminative cost-volume feature would completely vanish due to invalid
sampling, leading to the low efficiency of optical flow learning. We call this
phenomenon the Vanishing Cost Volume Problem. Inspired by the fact that local
motion tends to be highly consistent within a short temporal window, we propose
a novel iterative Motion Feature Recovery (MFR) method to address the vanishing
cost volume via modeling motion consistency across multiple frames. In each MFR
iteration, invalid entries from original motion features are first determined
based on the current flow. Then, an efficient network is designed to adaptively
learn the motion correlation to recover invalid features for lost-information
restoration. The final optical flow is then decoded from the recovered motion
features. Experimental results on Sintel and KITTI show that our method
achieves state-of-the-art performances. In fact, MFR currently ranks second on
Sintel public website.
- Abstract(参考訳): 連続するフレーム間で対応する画素が失われるため、オクルージョンや大きな変位を伴う光フロー推定は問題となる。
そこで本稿では, 一般的な識別コストボリュームの特徴から計算された大量の動作特徴(40%以上)が, 不正サンプリングにより完全に消失し, 光フロー学習の効率が低下することを明らかにする。
私たちはこの現象をVanishing Cost Volume Problemと呼んでいる。
局所的な動きが短時間の時間的ウィンドウ内で高度に一貫した傾向にあるという事実に着想を得て,複数のフレームにまたがる動きの整合性をモデル化することで,消失するコスト量に対処する新しい反復運動特徴回復法(MFR)を提案する。
各MFRイテレーションにおいて、元の動き特徴からの無効なエントリは、まず現在の流れに基づいて決定される。
そして、効率の良いネットワークが動き相関を適応的に学習するように設計され、失情報復元のための無効な特徴を回復する。
最終的な光学フローは、回復した運動特徴から復号される。
Sintel と KITTI の実験結果から,本手法が最先端の性能を実現することを示す。
実際、MFRは現在シンテルのウェブサイトで第2位である。
関連論文リスト
- Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Fast Neural Scene Flow [36.29234109363439]
座標ニューラルネットワークは、トレーニングなしで実行時のシーンフローを推定する。
本稿では,損失関数自体から生じる支配的な計算ボトルネックを伴って,シーンフローが異なることを実証する。
我々の高速ニューラルネットワークシーンフロー(FNSF)アプローチは、学習手法に匹敵するリアルタイムパフォーマンスを初めて報告します。
論文 参考訳(メタデータ) (2023-04-18T16:37:18Z) - Data Consistent Deep Rigid MRI Motion Correction [9.551748050454378]
運動アーティファクトはMRIの広範にわたる問題であり、人口レベルの画像研究において誤診や誤認を引き起こす。
現在の反射型剛性運動補正技術は、画像と運動パラメータの推定を共同で最適化する。
本稿では,厳密な動きパラメータのみを探索するために,深層ネットワークを用いて共同動画像パラメータ探索を削減した。
論文 参考訳(メタデータ) (2023-01-25T00:21:31Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - LAPNet: Non-rigid Registration derived in k-space for Magnetic Resonance
Imaging [28.404584219735074]
胸部スキャン中にこのような動きを補正する動き補正技術が提案されている。
特に興味と課題は、アンダーサンプリングされた動き分解データから信頼できる非剛体運動場の導出にある。
アンダーサンプされたk空間データから高速かつ正確な非剛性登録を行うためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T15:39:23Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - PAN: Towards Fast Action Recognition via Learning Persistence of
Appearance [60.75488333935592]
最先端のほとんどの手法は、動きの表現として密度の高い光の流れに大きく依存している。
本稿では,光学的フローに依存することで,高速な動作認識に光を当てる。
我々はPersistence of Outearance(PA)と呼ばれる新しい動きキューを設計する。
光学的流れとは対照的に,我々のPAは境界における運動情報の蒸留に重点を置いている。
論文 参考訳(メタデータ) (2020-08-08T07:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。