論文の概要: PRAFlow_RVC: Pyramid Recurrent All-Pairs Field Transforms for Optical
Flow Estimation in Robust Vision Challenge 2020
- arxiv url: http://arxiv.org/abs/2009.06360v1
- Date: Mon, 14 Sep 2020 12:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:35:14.094600
- Title: PRAFlow_RVC: Pyramid Recurrent All-Pairs Field Transforms for Optical
Flow Estimation in Robust Vision Challenge 2020
- Title(参考訳): PRAFlow_RVC:ロバストビジョンチャレンジ2020における光フロー推定のためのピラミッドリカレント全対電場変換
- Authors: Zhexiong Wan, Yuxin Mao, Yuchao Dai
- Abstract要約: ピラミッドネットワーク構造を基盤としたPRAFlow(Pyramid Recurrent All-Pairs Flow)を提案する。
モデルは同じモデルとパラメータを使って複数のリーダボードに送信し、ECCV 2020ワークショップの光学フロータスクであるRobust Vision Challengeで2位を獲得しました。
- 参考スコア(独自算出の注目度): 28.77846425802558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation is an important computer vision task, which aims at
estimating the dense correspondences between two frames. RAFT (Recurrent All
Pairs Field Transforms) currently represents the state-of-the-art in optical
flow estimation. It has excellent generalization ability and has obtained
outstanding results across several benchmarks. To further improve the
robustness and achieve accurate optical flow estimation, we present PRAFlow
(Pyramid Recurrent All-Pairs Flow), which builds upon the pyramid network
structure. Due to computational limitation, our proposed network structure only
uses two pyramid layers. At each layer, the RAFT unit is used to estimate the
optical flow at the current resolution. Our model was trained on several
simulate and real-image datasets, submitted to multiple leaderboards using the
same model and parameters, and won the 2nd place in the optical flow task of
ECCV 2020 workshop: Robust Vision Challenge.
- Abstract(参考訳): 光フロー推定は、2つのフレーム間の密接な対応を推定することを目的とした重要なコンピュータビジョンタスクである。
RAFT (Recurrent All Pairs Field Transforms) は現在、光フロー推定における最先端の手法である。
優れた一般化能力を有し、いくつかのベンチマークで優れた結果を得た。
さらにロバスト性の向上と正確な光フロー推定を実現するため,ピラミッドネットワーク構造上に構築されたPRAFlow(Pyramid Recurrent All-Pairs Flow)を提案する。
計算限界のため,提案するネットワーク構造は2つのピラミッド層のみを用いる。
各層において、RAFTユニットを使用して、現在の解像度での光学フローを推定する。
私たちのモデルは、シミュレーションおよび実画像データセットでトレーニングされ、同じモデルとパラメータを使用して複数のリーダボードに送信され、eccv 2020ワークショップのoptical flow task: robust vision challengeで2位を獲得しました。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Towards Anytime Optical Flow Estimation with Event Cameras [35.685866753715416]
イベントカメラは、マイクロ秒間の対数輝度の変化に対応することができる。
イベントカメラを介して収集された既存のデータセットは、限られたフレームレートの光学フローグラウンド真理を提供する。
本研究では,高フレームレートのイベント光流を生成するEVent-based Anytime Flow推定ネットワークであるEVA-Flowを提案する。
論文 参考訳(メタデータ) (2023-07-11T06:15:12Z) - SSTM: Spatiotemporal Recurrent Transformers for Multi-frame Optical Flow
Estimation [0.0]
クローズド領域および外界領域における光流量推定は、光流量推定アルゴリズムの現在の重要な限界の2つである。
最近の最先端の光学フロー推定アルゴリズムは、連続した画像対ごとに連続して光フローを推定する2フレームベースの手法である。
多フレーム画像列から2つ以上の連続する光フローを並列に推定する学習型多フレーム光フロー推定法を提案する。
論文 参考訳(メタデータ) (2023-04-26T23:39:40Z) - AMT: All-Pairs Multi-Field Transforms for Efficient Frame Interpolation [80.33846577924363]
ビデオフレームギスブのための新しいネットワークアーキテクチャであるAMT(All-Pairs Multi-Field Transforms)を提案する。
まず、すべての画素に対して双方向のボリュームを構築し、予測された両側フローを用いて相関関係を検索する。
第2に、入力フレーム上で逆向きのワープを行うために、一対の更新された粗い流れから細粒度の流れ場の複数のグループを導出する。
論文 参考訳(メタデータ) (2023-04-19T16:18:47Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Enhanced Correlation Matching based Video Frame Interpolation [5.304928339627251]
拡張相関マッチングに基づくビデオフレーム補間ネットワークという新しいフレームワークを提案する。
提案手法では,光学的フロー推定のために,各ピラミッド層間のパラメータを共用する繰り返しピラミッド構造を用いる。
実験の結果,提案手法は4Kビデオデータや低解像度のベンチマークデータセット,客観的品質,主観的品質などにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-17T02:43:45Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - STaRFlow: A SpatioTemporal Recurrent Cell for Lightweight Multi-Frame
Optical Flow Estimation [64.99259320624148]
マルチフレーム光フロー推定のための軽量CNNアルゴリズムを提案する。
結果のSTaRFlowアルゴリズムは、MPI SintelとKitti2015で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2020-07-10T17:01:34Z) - FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network [12.249680550252327]
我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
論文 参考訳(メタデータ) (2020-06-22T14:01:01Z) - FPCR-Net: Feature Pyramidal Correlation and Residual Reconstruction for
Optical Flow Estimation [72.41370576242116]
フレーム対からの光フロー推定のための半教師付き特徴ピラミッド相関・残留再構成ネットワーク(FPCR-Net)を提案する。
ピラミッド相関マッピングと残留再構成の2つの主要なモジュールで構成されている。
実験結果から,提案手法は,平均終点誤差 (AEE) に対して0.80, 1.15, 0.10の改善を達成し,最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2020-01-17T07:13:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。