論文の概要: CoT-AMFlow: Adaptive Modulation Network with Co-Teaching Strategy for
Unsupervised Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2011.02156v1
- Date: Wed, 4 Nov 2020 07:01:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:01:32.065543
- Title: CoT-AMFlow: Adaptive Modulation Network with Co-Teaching Strategy for
Unsupervised Optical Flow Estimation
- Title(参考訳): CoT-AMFlow:教師なし光フロー推定のための協調学習戦略を用いた適応変調ネットワーク
- Authors: Hengli Wang, Rui Fan, Ming Liu
- Abstract要約: 教師なし光フロー推定手法であるCoT-AMFlowを提案する。
ネットワークアーキテクチャの観点からは,2つの新しいモジュールタイプを用いた適応変調ネットワークを開発する。
MPIシンテル、KITTI Flow、ミドルベリーフローのベンチマーク実験の結果、CoT-AMFlowは他の最先端の教師なしアプローチよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 24.8115050824907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interpretation of ego motion and scene change is a fundamental task for
mobile robots. Optical flow information can be employed to estimate motion in
the surroundings. Recently, unsupervised optical flow estimation has become a
research hotspot. However, unsupervised approaches are often easy to be
unreliable on partially occluded or texture-less regions. To deal with this
problem, we propose CoT-AMFlow in this paper, an unsupervised optical flow
estimation approach. In terms of the network architecture, we develop an
adaptive modulation network that employs two novel module types, flow
modulation modules (FMMs) and cost volume modulation modules (CMMs), to remove
outliers in challenging regions. As for the training paradigm, we adopt a
co-teaching strategy, where two networks simultaneously teach each other about
challenging regions to further improve accuracy. Experimental results on the
MPI Sintel, KITTI Flow and Middlebury Flow benchmarks demonstrate that our
CoT-AMFlow outperforms all other state-of-the-art unsupervised approaches,
while still running in real time. Our project page is available at
https://sites.google.com/view/cot-amflow.
- Abstract(参考訳): エゴ運動とシーン変化の解釈は、移動ロボットにとって基本的な課題である。
光の流れ情報を用いて周囲の動きを推定することができる。
近年,教師なし光流量推定が研究ホットスポットとなっている。
しかし、教師なしのアプローチは、部分的に排除されたり、テクスチャのない地域では信頼できないことが多い。
本稿では,この問題を解決するために,教師なし光フロー推定手法であるCoT-AMFlowを提案する。
ネットワークアーキテクチャの観点からは,フロー変調モジュール (FMM) とコストボリューム変調モジュール (CMM) の2つの新しいモジュールタイプを用いた適応変調ネットワークを開発し,課題のある領域のアウトレイラを除去する。
トレーニングパラダイムについては,2つのネットワークが同時に,課題領域について相互に教え合い,精度をさらに向上する学習戦略を採用する。
MPIシンテル、KITTI Flow、ミドルベリーフローのベンチマーク実験の結果、CoT-AMFlowは他の最先端の教師なしアプローチよりも性能が良く、しかもリアルタイムに動作していることがわかった。
私たちのプロジェクトページはhttps://sites.google.com/view/cot-amflowで閲覧できます。
関連論文リスト
- FlowDA: Unsupervised Domain Adaptive Framework for Optical Flow
Estimation [6.122542233250026]
本稿では、光学的フロー推定のための教師なし領域適応(UDA)フレームワークであるFlowDAを紹介する。
FlowDAは、最先端の教師なし光フロー推定法SMURFを21.6%、実光フローデータセット生成法MPI-Flowを27.8%、光フロー推定適応法FlowSupervisorを30.9%上回る。
論文 参考訳(メタデータ) (2023-12-28T12:51:48Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - EV-MGRFlowNet: Motion-Guided Recurrent Network for Unsupervised
Event-based Optical Flow with Hybrid Motion-Compensation Loss [4.266841662194981]
イベントカメラは、高時間分解能や高ダイナミックレンジなどの有望な特性を提供する。
現在、既存のイベントベースのほとんどの作品では、光学フローを推定するためにディープラーニングを使用している。
本稿では,教師なしイベントベース光フロー推定パイプラインであるEV-MGRFlowNetを提案する。
論文 参考訳(メタデータ) (2023-05-13T07:08:48Z) - CSFlow: Learning Optical Flow via Cross Strip Correlation for Autonomous
Driving [9.562270891742982]
クロスストリップ相関モジュール(CSC)と相関回帰初期化モジュール(CRI)
CSFlowは2つの新しいモジュールで構成されている。クロスストリップ相関モジュール(CSC)と相関回帰初期化モジュール(CRI)である。
論文 参考訳(メタデータ) (2022-02-02T08:17:45Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - LiteFlowNet3: Resolving Correspondence Ambiguity for More Accurate
Optical Flow Estimation [99.19322851246972]
本稿では,光フロー推定の問題に対処する2つのモジュールからなるディープネットワークである LiteFlowNet3 を紹介する。
LiteFlowNet3は、公開ベンチマークで有望な結果を達成するだけでなく、小さなモデルサイズと高速なランタイムも備えている。
論文 参考訳(メタデータ) (2020-07-18T03:30:39Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z) - FPCR-Net: Feature Pyramidal Correlation and Residual Reconstruction for
Optical Flow Estimation [72.41370576242116]
フレーム対からの光フロー推定のための半教師付き特徴ピラミッド相関・残留再構成ネットワーク(FPCR-Net)を提案する。
ピラミッド相関マッピングと残留再構成の2つの主要なモジュールで構成されている。
実験結果から,提案手法は,平均終点誤差 (AEE) に対して0.80, 1.15, 0.10の改善を達成し,最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2020-01-17T07:13:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。