論文の概要: FADNet: A Fast and Accurate Network for Disparity Estimation
- arxiv url: http://arxiv.org/abs/2003.10758v1
- Date: Tue, 24 Mar 2020 10:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:33:58.148070
- Title: FADNet: A Fast and Accurate Network for Disparity Estimation
- Title(参考訳): FADNet: 分散推定のための高速で正確なネットワーク
- Authors: Qiang Wang, Shaohuai Shi, Shizhen Zheng, Kaiyong Zhao, Xiaowen Chu
- Abstract要約: 本研究では,FADNetという分散度推定のための効率的かつ高精度なディープネットワークを提案する。
高速な計算を保存するために、2Dベースの効率的な相関層と積み重ねブロックを利用する。
精度を向上させるために、マルチスケールの重みスケジューリングトレーニング技術を活用するために、マルチスケールの予測を含んでいる。
- 参考スコア(独自算出の注目度): 18.05392578461659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved great success in the area of
computer vision. The disparity estimation problem tends to be addressed by DNNs
which achieve much better prediction accuracy in stereo matching than
traditional hand-crafted feature based methods. On one hand, however, the
designed DNNs require significant memory and computation resources to
accurately predict the disparity, especially for those 3D convolution based
networks, which makes it difficult for deployment in real-time applications. On
the other hand, existing computation-efficient networks lack expression
capability in large-scale datasets so that they cannot make an accurate
prediction in many scenarios. To this end, we propose an efficient and accurate
deep network for disparity estimation named FADNet with three main features: 1)
It exploits efficient 2D based correlation layers with stacked blocks to
preserve fast computation; 2) It combines the residual structures to make the
deeper model easier to learn; 3) It contains multi-scale predictions so as to
exploit a multi-scale weight scheduling training technique to improve the
accuracy. We conduct experiments to demonstrate the effectiveness of FADNet on
two popular datasets, Scene Flow and KITTI 2015. Experimental results show that
FADNet achieves state-of-the-art prediction accuracy, and runs at a significant
order of magnitude faster speed than existing 3D models. The codes of FADNet
are available at https://github.com/HKBU-HPML/FADNet.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はコンピュータビジョンの分野で大きな成功を収めている。
DNNでは, 従来の手作り特徴量に基づく手法よりも, ステレオマッチングにおける予測精度が向上する傾向にある。
しかし、設計したDNNは、特に3D畳み込みベースのネットワークにおいて、その差を正確に予測するために、メモリと計算資源をかなり必要としており、リアルタイムアプリケーションへのデプロイが困難である。
一方,既存の計算効率の高いネットワークでは,大規模データセットに表現能力がないため,多くのシナリオにおいて正確な予測ができない。
そこで本研究では,fadnetという3つの特徴を持つ,効率良く高精度な深層ネットワークを提案する。
1) 高速な計算を維持するために, 積み重ねブロックを用いた効率的な2次元相関層を利用する。
2) 残余構造を組み合わせることで,より深いモデルを学習しやすくする。
3) 重みスケジューリングトレーニング手法を活用し, 精度を向上させるために, マルチスケール予測を含む。
我々は、Scene FlowとKITTI 2015という2つの一般的なデータセット上で、FADNetの有効性を示す実験を行っている。
実験の結果,FADNetは最先端の予測精度を達成し,既存の3Dモデルよりもかなり高速に動作していることがわかった。
FADNetのコードはhttps://github.com/HKBU-HPML/FADNetで公開されている。
関連論文リスト
- SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Benchmarking Test-Time Unsupervised Deep Neural Network Adaptation on
Edge Devices [19.335535517714703]
エッジへの展開後のディープニューラルネットワーク(DNN)の予測精度は、新しいデータの分布の変化によって、時間とともに低下する可能性がある。
バッチ正規化パラメータを再調整することにより、ノイズデータに対するモデルの予測精度を向上させるため、近年の予測時間非教師なしDNN適応技術が導入されている。
本論文は, 各種エッジデバイスの性能とエネルギーを定量化するために, この種の技術に関する総合的な研究を初めて行ったものである。
論文 参考訳(メタデータ) (2022-03-21T19:10:40Z) - FADNet++: Real-Time and Accurate Disparity Estimation with Configurable
Networks [19.29846600092521]
FADNet++は、分散度推定のための効率的なディープネットワークである。
リアルタイムアプリケーションのための高速なモデル推論速度で精度を高めることができる。
SceneFlowデータセットの新たな最先端結果を実現している。
論文 参考訳(メタデータ) (2021-10-06T08:50:33Z) - EDNet: Efficient Disparity Estimation with Cost Volume Combination and
Attention-based Spatial Residual [17.638034176859932]
既存の分散度推定は、主に4D結合ボリュームを活用し、分散回帰のための非常に深い3D畳み込みニューラルネットワーク(CNN)を構築する。
本稿では,EDNetというネットワークを効率よく分散推定する手法を提案する。
Scene FlowとKITTIデータセットの実験は、EDNetが以前の3D CNNベースの作業より優れていることを示している。
論文 参考訳(メタデータ) (2020-10-26T04:49:44Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。