論文の概要: Learning Optical Flow with Adaptive Graph Reasoning
- arxiv url: http://arxiv.org/abs/2202.03857v1
- Date: Tue, 8 Feb 2022 13:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:28:29.792302
- Title: Learning Optical Flow with Adaptive Graph Reasoning
- Title(参考訳): 適応グラフ推論による光流れの学習
- Authors: Ao Luo, Fan Yang, Kunming Luo, Xin Li, Haoqiang Fan, Shuaicheng Liu
- Abstract要約: 光フローとして知られるビデオフレーム間のピクセルごとの運動を推定することは、ビデオの理解と分析において長年の課題である。
我々は,光フローにおけるシーン/コンテキスト情報の価値を強調するために,光フローに対する適応グラフ推論(AGFlow)と呼ばれる新しいグラフベースのアプローチを導入する。
AGFlowは1.43ピクセルと2.47ピクセルのEPEで最高の精度を達成し、それぞれ11.2%、13.6%の最先端のアプローチを上回っている。
- 参考スコア(独自算出の注目度): 35.348449774221656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating per-pixel motion between video frames, known as optical flow, is a
long-standing problem in video understanding and analysis. Most contemporary
optical flow techniques largely focus on addressing the cross-image matching
with feature similarity, with few methods considering how to explicitly reason
over the given scene for achieving a holistic motion understanding. In this
work, taking a fresh perspective, we introduce a novel graph-based approach,
called adaptive graph reasoning for optical flow (AGFlow), to emphasize the
value of scene/context information in optical flow. Our key idea is to decouple
the context reasoning from the matching procedure, and exploit scene
information to effectively assist motion estimation by learning to reason over
the adaptive graph. The proposed AGFlow can effectively exploit the context
information and incorporate it within the matching procedure, producing more
robust and accurate results. On both Sintel clean and final passes, our AGFlow
achieves the best accuracy with EPE of 1.43 and 2.47 pixels, outperforming
state-of-the-art approaches by 11.2% and 13.6%, respectively.
- Abstract(参考訳): 光フローとして知られるビデオフレーム間のピクセル当たりの動きを推定することは、ビデオの理解と分析において長年の課題である。
現代のオプティカルフロー技術のほとんどは、特徴的類似性を伴うクロスイメージマッチングへの対処に重点を置いているが、全体論的運動理解を達成するために与えられたシーンを明示的に推論する方法を考える方法はほとんどない。
本稿では,光フローにおけるシーン/コンテキスト情報の価値を強調するために,光フローに対する適応グラフ推論 (AGFlow) と呼ばれる新しいグラフベースのアプローチを提案する。
我々のキーとなる考え方は、マッチング手順からコンテキスト推論を分離し、シーン情報を利用して、適応グラフ上での学習による動き推定を効果的に支援することである。
提案したAGFlowは、コンテキスト情報を効果的に活用し、マッチング手順に組み込むことができ、より堅牢で正確な結果が得られる。
sintel clean と final pass の両方において、agflow は epe の 1.43 と 2.47 ピクセルで最高の精度を達成し、それぞれ 11.2% と 13.6% で最先端のアプローチを上回っている。
関連論文リスト
- MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision [6.173968909465726]
高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
人気の高い自動運転ベンチマークにおけるシーンフロー推定のための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-04T21:47:56Z) - TransFlow: Transformer as Flow Learner [22.727953339383344]
本稿では,光フロー推定のためのトランスフォーマーアーキテクチャであるTransFlowを提案する。
フロー推定において、より正確な相関と信頼できるマッチングを提供する。
ダイナミックなシーンにおける長距離時間的関連を通して、フロー推定においてより妥協された情報を復元する。
論文 参考訳(メタデータ) (2023-04-23T03:11:23Z) - Rethinking Optical Flow from Geometric Matching Consistent Perspective [38.014569953980754]
本稿では,従来の光流量推定法について再考する。
我々は,より優れた特徴表現を持つ光フロー推定(MatchFlow)のための事前学習タスクとして,GIMを使用している。
Sintel クリーンパスと KITTI テストセットの GMA から 11.5% と 10.1% の誤差削減を実現した。
論文 参考訳(メタデータ) (2023-03-15T06:00:38Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Single Image Optical Flow Estimation with an Event Camera [38.92408855196647]
イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T11:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。