論文の概要: FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network
- arxiv url: http://arxiv.org/abs/2006.12263v1
- Date: Mon, 22 Jun 2020 14:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:33:43.238019
- Title: FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network
- Title(参考訳): FDFlowNet:Deep Lightweight Networkを用いた高速光フロー推定
- Authors: Lingtong Kong, Jie Yang
- Abstract要約: 我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
- 参考スコア(独自算出の注目度): 12.249680550252327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant progress has been made for estimating optical flow using deep
neural networks. Advanced deep models achieve accurate flow estimation often
with a considerable computation complexity and time-consuming training
processes. In this work, we present a lightweight yet effective model for
real-time optical flow estimation, termed FDFlowNet (fast deep flownet). We
achieve better or similar accuracy on the challenging KITTI and Sintel
benchmarks while being about 2 times faster than PWC-Net. This is achieved by a
carefully-designed structure and newly proposed components. We first introduce
an U-shape network for constructing multi-scale feature which benefits upper
levels with global receptive field compared with pyramid network. In each
scale, a partial fully connected structure with dilated convolution is proposed
for flow estimation that obtains a good balance among speed, accuracy and
number of parameters compared with sequential connected and dense connected
structures. Experiments demonstrate that our model achieves state-of-the-art
performance while being fast and lightweight.
- Abstract(参考訳): 深層ニューラルネットワークを用いた光フロー推定において重要な進歩がみられた。
高度な深層モデルはしばしば計算の複雑さと時間を要する訓練プロセスで正確なフロー推定を達成する。
本研究では、FDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
これは注意深く設計された構造と新しく提案されたコンポーネントによって達成される。
まず, ピラミッド型ネットワークと比較して, グローバルレセプティブフィールドで上位層に有利なマルチスケール機能を構築するためのu字型ネットワークについて紹介する。
各スケールにおいて, 逐次連結構造と高密度連結構造と比較して, 速度, 精度, パラメータ数とのバランスが良好であるフロー推定のために, 拡張畳み込みを伴う部分連結構造を提案する。
実験により、我々のモデルは高速で軽量でありながら最先端の性能を達成することが示された。
関連論文リスト
- NeuFlow v2: High-Efficiency Optical Flow Estimation on Edge Devices [6.157420789049589]
計算要求の低減と高い精度のバランスをとる高効率光フロー法を提案する。
より軽量なバックボーンや高速リファインメントモジュールなど,新たなコンポーネントを導入しています。
我々のモデルでは,合成データと実世界のデータの両方で同等の性能を維持しながら,10倍-70倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-08-19T17:13:34Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - Rethinking Lightweight Salient Object Detection via Network Depth-Width
Tradeoff [26.566339984225756]
既存の有能なオブジェクト検出手法では、より深いネットワークが採用され、性能が向上する。
本稿では,U字形構造を3つの相補枝に分解することで,新しい3方向デコーダフレームワークを提案する。
提案手法は,5つのベンチマークにおいて効率と精度のバランスが良くなることを示す。
論文 参考訳(メタデータ) (2023-01-17T03:43:25Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。