論文の概要: FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2103.04524v1
- Date: Mon, 8 Mar 2021 03:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:37:35.239028
- Title: FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation
- Title(参考訳): FastFlowNet: 高速光フロー推定のための軽量ネットワーク
- Authors: Lingtong Kong, Chunhua Shen, Jie Yang
- Abstract要約: ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
- 参考スコア(独自算出の注目度): 81.76975488010213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense optical flow estimation plays a key role in many robotic vision tasks.
It has been predicted with satisfying accuracy than traditional methods with
advent of deep learning. However, current networks often occupy large number of
parameters and require heavy computation costs. These drawbacks have hindered
applications on power- or memory-constrained mobile devices. To deal with these
challenges, in this paper, we dive into designing efficient structure for fast
and accurate optical flow prediction. Our proposed FastFlowNet works in the
well-known coarse-to-fine manner with following innovations. First, a new head
enhanced pooling pyramid (HEPP) feature extractor is employed to intensify
high-resolution pyramid feature while reducing parameters. Second, we introduce
a novel center dense dilated correlation (CDDC) layer for constructing compact
cost volume that can keep large search radius with reduced computation burden.
Third, an efficient shuffle block decoder (SBD) is implanted into each pyramid
level to acclerate flow estimation with marginal drops in accuracy. Experiments
on both synthetic Sintel and real-world KITTI datasets demonstrate the
effectiveness of proposed approaches, which consumes only 1/10 computation of
comparable networks to get 90% of their performance. In particular, FastFlowNet
only contains 1.37 M parameters and runs at 90 or 5.7 fps with one desktop
NVIDIA GTX 1080 Ti or embedded Jetson TX2 GPU on Sintel resolution images.
- Abstract(参考訳): ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
深層学習の出現により、従来の方法よりも満足のいく精度で予測されています。
しかし、現在のネットワークはしばしば多くのパラメータを占有し、計算コストが重い。
これらの欠点は、電力やメモリに制約されたモバイルデバイスのアプリケーションを妨げる。
本稿では,これらの課題に対処するため,高速かつ正確な光流予測のための効率的な構造設計について検討する。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
まず,新しいhepp機能抽出器を用いて,パラメータを低減しつつ高分解能のピラミッド機能を強化する。
第二に,計算負荷を小さくして探索半径を大きく抑える小型コストボリュームを構築するための,新しい中心密度拡張相関(CDDC)層を提案する。
第3に、効率の良いシャッフルブロックデコーダ(sbd)を各ピラミッドレベルに挿入し、精度の限界低下を伴う流量推定を行う。
合成sintelと実世界のkittiデータセットの両方の実験は、同等のネットワークの計算を1/10だけ消費し、パフォーマンスの90%を得る提案手法の有効性を示している。
特に、FastFlowNetは1.37Mパラメータのみを含み、デスクトップNVIDIA GTX 1080 Tiまたは組み込みJetson TX2 GPUをSintel解像度画像上で90または5.7fpsで実行します。
関連論文リスト
- NeuFlow v2: High-Efficiency Optical Flow Estimation on Edge Devices [6.157420789049589]
計算要求の低減と高い精度のバランスをとる高効率光フロー法を提案する。
より軽量なバックボーンや高速リファインメントモジュールなど,新たなコンポーネントを導入しています。
我々のモデルでは,合成データと実世界のデータの両方で同等の性能を維持しながら,10倍-70倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-08-19T17:13:34Z) - NeuFlow: Real-time, High-accuracy Optical Flow Estimation on Robots Using Edge Devices [6.470511497023878]
リアルタイムの高精度光フロー推定は,様々な応用において重要な要素である。
我々は,高精度かつ計算コストの懸念に対処する,高速な光フローアーキテクチャであるNeuFlowを提案する。
当社のアプローチはエッジコンピューティングプラットフォーム上で約30FPSを実現しており、複雑なコンピュータビジョンタスクのデプロイにおいて大きなブレークスルーをもたらしている。
論文 参考訳(メタデータ) (2024-03-15T15:58:51Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Faster Attention Is What You Need: A Fast Self-Attention Neural Network
Backbone Architecture for the Edge via Double-Condensing Attention Condensers [71.40595908386477]
本稿では,2重対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向
結果のバックボーン(AttendNeXtと呼ぶ)は、組み込みARMプロセッサ上で大幅に高い推論スループットを実現する。
これらの有望な結果は、さまざまな効率的なアーキテクチャ設計と自己アテンション機構の探索が、TinyMLアプリケーションのための興味深い新しいビルディングブロックにつながることを実証している。
論文 参考訳(メタデータ) (2022-08-15T02:47:33Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - a novel attention-based network for fast salient object detection [14.246237737452105]
現在の有向物体検出ネットワークにおいて、最も一般的な方法はU字型構造を用いることである。
3つのコントリビューションを持つ新しい深層畳み込みネットワークアーキテクチャを提案する。
提案手法は, 精度を損なうことなく, 原サイズの1/3まで圧縮できることを示した。
論文 参考訳(メタデータ) (2021-12-20T12:30:20Z) - Accelerating Sparse Deep Neural Networks [20.6942347219753]
本研究では,密度行列ユニットの計算スループットを2倍にする2:4 (25%) のスパースパターンを利用したスパースコアの設計と挙動を示す。
また,2:4のスパーシティパターン要件を満たすネットワークをトレーニングし,精度を維持するための簡単なワークフローについても述べる。
論文 参考訳(メタデータ) (2021-04-16T21:27:32Z) - FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network [12.249680550252327]
我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
論文 参考訳(メタデータ) (2020-06-22T14:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。