論文の概要: FADNet++: Real-Time and Accurate Disparity Estimation with Configurable
Networks
- arxiv url: http://arxiv.org/abs/2110.02582v1
- Date: Wed, 6 Oct 2021 08:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:37:28.513303
- Title: FADNet++: Real-Time and Accurate Disparity Estimation with Configurable
Networks
- Title(参考訳): FADNet++: 構成可能なネットワークによるリアルタイムかつ正確な分散推定
- Authors: Qiang Wang, Shaohuai Shi, Shizhen Zheng, Kaiyong Zhao, Xiaowen Chu
- Abstract要約: FADNet++は、分散度推定のための効率的なディープネットワークである。
リアルタイムアプリケーションのための高速なモデル推論速度で精度を高めることができる。
SceneFlowデータセットの新たな最先端結果を実現している。
- 参考スコア(独自算出の注目度): 19.29846600092521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved great success in the area of
computer vision. The disparity estimation problem tends to be addressed by DNNs
which achieve much better prediction accuracy than traditional hand-crafted
feature-based methods. However, the existing DNNs hardly serve both efficient
computation and rich expression capability, which makes them difficult for
deployment in real-time and high-quality applications, especially on mobile
devices. To this end, we propose an efficient, accurate, and configurable deep
network for disparity estimation named FADNet++. Leveraging several liberal
network design and training techniques, FADNet++ can boost its accuracy with a
fast model inference speed for real-time applications. Besides, it enables
users to easily configure different sizes of models for balancing accuracy and
inference efficiency. We conduct extensive experiments to demonstrate the
effectiveness of FADNet++ on both synthetic and realistic datasets among six
GPU devices varying from server to mobile platforms. Experimental results show
that FADNet++ and its variants achieve state-of-the-art prediction accuracy,
and run at a significant order of magnitude faster speed than existing 3D
models. With the constraint of running at above 15 frames per second (FPS) on a
mobile GPU, FADNet++ achieves a new state-of-the-art result for the SceneFlow
dataset.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はコンピュータビジョンの分野で大きな成功を収めている。
差分推定問題は、従来の手作りの特徴に基づく手法よりもはるかに優れた予測精度を実現するDNNによって解決される傾向にある。
しかし、既存のDNNは効率的な計算能力とリッチな表現能力の両方をほとんど提供しないため、特にモバイルデバイスにおいて、リアルタイムおよび高品質なアプリケーションへのデプロイが困難になる。
そこで本研究では,FADNet++という分散度推定のための,効率的で正確かつ構成可能なディープネットワークを提案する。
FADNet++は、いくつかのリベラルなネットワーク設計とトレーニング技術を活用し、リアルタイムアプリケーションのための高速なモデル推論速度で精度を高めることができる。
さらに、精度と推論効率のバランスをとるために、モデルのさまざまなサイズを簡単に設定できる。
我々は、サーバからモバイルプラットフォームまで異なる6つのGPUデバイス間の合成および現実的なデータセットにおけるFADNet++の有効性を実証するための広範な実験を行った。
実験の結果,FADNet++とその変種は最先端の予測精度を達成し,既存の3Dモデルよりもはるかに高速に動作していることがわかった。
モバイルGPU上で毎秒15フレーム以上(FPS)実行するという制約により、FADNet++はSceneFlowデータセットの新たな最先端結果を達成する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Benchmarking Test-Time Unsupervised Deep Neural Network Adaptation on
Edge Devices [19.335535517714703]
エッジへの展開後のディープニューラルネットワーク(DNN)の予測精度は、新しいデータの分布の変化によって、時間とともに低下する可能性がある。
バッチ正規化パラメータを再調整することにより、ノイズデータに対するモデルの予測精度を向上させるため、近年の予測時間非教師なしDNN適応技術が導入されている。
本論文は, 各種エッジデバイスの性能とエネルギーを定量化するために, この種の技術に関する総合的な研究を初めて行ったものである。
論文 参考訳(メタデータ) (2022-03-21T19:10:40Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - FADNet: A Fast and Accurate Network for Disparity Estimation [18.05392578461659]
本研究では,FADNetという分散度推定のための効率的かつ高精度なディープネットワークを提案する。
高速な計算を保存するために、2Dベースの効率的な相関層と積み重ねブロックを利用する。
精度を向上させるために、マルチスケールの重みスケジューリングトレーニング技術を活用するために、マルチスケールの予測を含んでいる。
論文 参考訳(メタデータ) (2020-03-24T10:27:11Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。