論文の概要: CSFlow: Learning Optical Flow via Cross Strip Correlation for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2202.00909v1
- Date: Wed, 2 Feb 2022 08:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:20:26.931390
- Title: CSFlow: Learning Optical Flow via Cross Strip Correlation for Autonomous
Driving
- Title(参考訳): CSFlow:自律走行のためのクロスストリップ相関による光フローの学習
- Authors: Hao Shi, Yifan Zhou, Kailun Yang, Xiaoting Yin, Kaiwei Wang
- Abstract要約: クロスストリップ相関モジュール(CSC)と相関回帰初期化モジュール(CRI)
CSFlowは2つの新しいモジュールで構成されている。クロスストリップ相関モジュール(CSC)と相関回帰初期化モジュール(CRI)である。
- 参考スコア(独自算出の注目度): 9.562270891742982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation is an essential task in self-driving systems, which
helps autonomous vehicles perceive temporal continuity information of
surrounding scenes. The calculation of all-pair correlation plays an important
role in many existing state-of-the-art optical flow estimation methods.
However, the reliance on local knowledge often limits the model's accuracy
under complex street scenes. In this paper, we propose a new deep network
architecture for optical flow estimation in autonomous driving--CSFlow, which
consists of two novel modules: Cross Strip Correlation module (CSC) and
Correlation Regression Initialization module (CRI). CSC utilizes a striping
operation across the target image and the attended image to encode global
context into correlation volumes, while maintaining high efficiency. CRI is
used to maximally exploit the global context for optical flow initialization.
Our method has achieved state-of-the-art accuracy on the public autonomous
driving dataset KITTI-2015. Code is publicly available at
https://github.com/MasterHow/CSFlow.
- Abstract(参考訳): 光流量推定は、自動運転車が周囲のシーンの時間的連続性を知覚するのに役立つ自動運転システムにおいて重要な課題である。
全対相関の計算は、既存の多くの光学的フロー推定法において重要な役割を果たす。
しかし、地域知識への依存はしばしば複雑なストリートシーンにおけるモデルの正確さを制限する。
本稿では, クロスストリップ相関モジュール (csc) と相関回帰初期化モジュール (cri) の2つのモジュールからなる, 自律運転-csflowにおける光フロー推定のための新しいディープネットワークアーキテクチャを提案する。
CSCは、対象画像と出席画像のストリップ操作を利用して、グローバルコンテキストを高い効率を維持しながら相関ボリュームに符号化する。
CRIは、光フロー初期化のグローバルコンテキストを最大限活用するために使用される。
本手法は,公立自動運転データセットKITTI-2015において最先端の精度を達成した。
コードはhttps://github.com/MasterHow/CSFlowで公開されている。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - TransFlow: Transformer as Flow Learner [22.727953339383344]
本稿では,光フロー推定のためのトランスフォーマーアーキテクチャであるTransFlowを提案する。
フロー推定において、より正確な相関と信頼できるマッチングを提供する。
ダイナミックなシーンにおける長距離時間的関連を通して、フロー推定においてより妥協された情報を復元する。
論文 参考訳(メタデータ) (2023-04-23T03:11:23Z) - SemARFlow: Injecting Semantics into Unsupervised Optical Flow Estimation
for Autonomous Driving [5.342413115295559]
本稿では、自律運転データ用に設計された教師なし光フローネットワークであるSemARFlowを紹介する。
オブジェクト境界に関する目に見える改善に加えて、データセットをまたいで一般化する能力も示しています。
論文 参考訳(メタデータ) (2023-03-10T21:17:14Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - STJLA: A Multi-Context Aware Spatio-Temporal Joint Linear Attention
Network for Traffic Forecasting [7.232141271583618]
非効率な時空間継手線形注意(SSTLA)と呼ばれる交通予測のための新しいディープラーニングモデルを提案する。
SSTLAは、全時間ノード間のグローバル依存を効率的に捉えるために、ジョイントグラフに線形注意を適用する。
実世界の2つの交通データセットであるイングランドとテンポラル7の実験は、我々のSTJLAが最先端のベースラインよりも9.83%と3.08%の精度でMAE測定を達成できることを示した。
論文 参考訳(メタデータ) (2021-12-04T06:39:18Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - AutoFlow: Learning a Better Training Set for Optical Flow [62.40293188964933]
AutoFlowは、光学フローのトレーニングデータをレンダリングする手法である。
AutoFlowはPWC-NetとRAFTの両方の事前トレーニングにおいて最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-04-29T17:55:23Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。