論文の概要: Detail Preserving Residual Feature Pyramid Modules for Optical Flow
- arxiv url: http://arxiv.org/abs/2107.10990v1
- Date: Fri, 23 Jul 2021 01:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 13:55:35.737518
- Title: Detail Preserving Residual Feature Pyramid Modules for Optical Flow
- Title(参考訳): 光フロー用残留特徴ピラミッドモジュールの細部保存
- Authors: Libo Long, Jochen Lang
- Abstract要約: RFPM(Residual Feature Pyramid Module)は、光学フロー推定の全体的な反復的精細化設計を変更することなく、特徴マップに重要な詳細を保持できる。
その結果, RFPMはフローエラーを視覚的に低減し, Sintel のクリーンパスにおける最先端性能を向上することがわかった。
- 参考スコア(独自算出の注目度): 3.3301533805099357
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Feature pyramids and iterative refinement have recently led to great progress
in optical flow estimation. However, downsampling in feature pyramids can cause
blending of foreground objects with the background, which will mislead
subsequent decisions in the iterative processing. The results are missing
details especially in the flow of thin and of small structures. We propose a
novel Residual Feature Pyramid Module (RFPM) which retains important details in
the feature map without changing the overall iterative refinement design of the
optical flow estimation. RFPM incorporates a residual structure between
multiple feature pyramids into a downsampling module that corrects the blending
of objects across boundaries. We demonstrate how to integrate our module with
two state-of-the-art iterative refinement architectures. Results show that our
RFPM visibly reduces flow errors and improves state-of-art performance in the
clean pass of Sintel, and is one of the top-performing methods in KITTI.
According to the particular modular structure of RFPM, we introduce a special
transfer learning approach that can dramatically decrease the training time
compared to a typical full optical flow training schedule on multiple datasets.
- Abstract(参考訳): 特徴ピラミッドと反復精製は近年,光学的流量推定に大きな進歩をもたらした。
しかし、特徴ピラミッドのダウンサンプリングは、前景のオブジェクトと背景とのブレンドを引き起こす可能性があるため、反復処理におけるその後の決定を誤解させることになる。
結果は特に薄さと小さな構造物の流れについて詳細を欠いている。
我々は,光学フロー推定の全体的な反復的洗練設計を変更することなく,特徴マップに重要な詳細を保持できる新しいResidual Feature Pyramid Module (RFPM)を提案する。
RFPMは、複数の特徴ピラミッド間の残留構造をダウンサンプリングモジュールに組み込んで、境界を越えてオブジェクトのブレンディングを修正する。
モジュールを2つの最先端のイテレーティブリファインメントアーキテクチャに統合する方法をデモします。
その結果, RFPM はSintel のクリーンパスにおける流れの誤差を視覚的に低減し, 最先端の性能向上を図っている。
rfpmの特定のモジュール構造に従って,複数のデータセット上の一般的なフルオプティカルフロートレーニングスケジュールと比較して,トレーニング時間を劇的に短縮できる特別なトランスファー学習手法を導入する。
関連論文リスト
- Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Structure Flow-Guided Network for Real Depth Super-Resolution [28.63334760296165]
本稿では,新しい構造フロー誘導深度超解像(DSR)フレームワークを提案する。
クロスモダリティフローマップを学習し、RGB構造情報転送を正確に深度アップサンプリングするためのガイドする。
我々のフレームワークは最先端の手法と比較して優れた性能を実現している。
論文 参考訳(メタデータ) (2023-01-31T05:13:55Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - PRAFlow_RVC: Pyramid Recurrent All-Pairs Field Transforms for Optical
Flow Estimation in Robust Vision Challenge 2020 [28.77846425802558]
ピラミッドネットワーク構造を基盤としたPRAFlow(Pyramid Recurrent All-Pairs Flow)を提案する。
モデルは同じモデルとパラメータを使って複数のリーダボードに送信し、ECCV 2020ワークショップの光学フロータスクであるRobust Vision Challengeで2位を獲得しました。
論文 参考訳(メタデータ) (2020-09-14T12:27:52Z) - FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network [12.249680550252327]
我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
論文 参考訳(メタデータ) (2020-06-22T14:01:01Z) - STC-Flow: Spatio-temporal Context-aware Optical Flow Estimation [13.649566468445258]
光フロー推定のための時空間ネットワーク STC-Flow を提案する。
STC-Flowには、ピラミッド空間コンテキストモジュール、時間コンテキスト相関モジュール、残留コンテキストアップサンプリングモジュールの3つの重要なコンテキストモジュールが含まれている。
実験結果から,提案手法は,SintelデータセットとKITTI 2012/2015データセットに基づく2フレーム方式の最先端性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-03-01T08:18:57Z) - FPCR-Net: Feature Pyramidal Correlation and Residual Reconstruction for
Optical Flow Estimation [72.41370576242116]
フレーム対からの光フロー推定のための半教師付き特徴ピラミッド相関・残留再構成ネットワーク(FPCR-Net)を提案する。
ピラミッド相関マッピングと残留再構成の2つの主要なモジュールで構成されている。
実験結果から,提案手法は,平均終点誤差 (AEE) に対して0.80, 1.15, 0.10の改善を達成し,最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2020-01-17T07:13:51Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。