論文の概要: DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2004.08008v1
- Date: Fri, 17 Apr 2020 00:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:09:13.595080
- Title: DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation
- Title(参考訳): DepthNet Nano: 単眼深度推定のための超小型自己正規化ニューラルネットワーク
- Authors: Linda Wang, Mahmoud Famouri, and Alexander Wong
- Abstract要約: DepthNet Nanoは、人間の機械の共同設計戦略を用いて設計された単眼深度推定のためのコンパクトなディープニューラルネットワークである。
提案したDepthNet Nanoは、最先端のネットワークで同等の性能を保ちながら、高い効率のネットワークアーキテクチャを持っている。
- 参考スコア(独自算出の注目度): 76.90627702089357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth estimation is an active area of research in the field of computer
vision, and has garnered significant interest due to its rising demand in a
large number of applications ranging from robotics and unmanned aerial vehicles
to autonomous vehicles. A particularly challenging problem in this area is
monocular depth estimation, where the goal is to infer depth from a single
image. An effective strategy that has shown considerable promise in recent
years for tackling this problem is the utilization of deep convolutional neural
networks. Despite these successes, the memory and computational requirements of
such networks have made widespread deployment in embedded scenarios very
challenging. In this study, we introduce DepthNet Nano, a highly compact self
normalizing network for monocular depth estimation designed using a human
machine collaborative design strategy, where principled network design
prototyping based on encoder-decoder design principles are coupled with
machine-driven design exploration. The result is a compact deep neural network
with highly customized macroarchitecture and microarchitecture designs, as well
as self-normalizing characteristics, that are highly tailored for the task of
embedded depth estimation. The proposed DepthNet Nano possesses a highly
efficient network architecture (e.g., 24X smaller and 42X fewer MAC operations
than Alhashim et al. on KITTI), while still achieving comparable performance
with state-of-the-art networks on the NYU-Depth V2 and KITTI datasets.
Furthermore, experiments on inference speed and energy efficiency on a Jetson
AGX Xavier embedded module further illustrate the efficacy of DepthNet Nano at
different resolutions and power budgets (e.g., ~14 FPS and >0.46
images/sec/watt at 384 X 1280 at a 30W power budget on KITTI).
- Abstract(参考訳): 深度推定はコンピュータビジョンの分野では活発な研究分野であり、ロボットや無人航空機から自動運転車に至るまで、多くのアプリケーションで需要が高まっているため、大きな関心を集めている。
この領域で特に難しい問題は単眼深度推定であり、その目的は1つの画像から深さを推測することである。
近年,この問題に対処するための効果的な戦略として,深層畳み込みニューラルネットワークの利用がある。
これらの成功にもかかわらず、そのようなネットワークのメモリと計算の要求は、組み込みシナリオに広く展開することを非常に困難にしている。
本研究では,人間機械協調設計戦略を用いた単眼深度推定のための高度にコンパクトな自己正規化ネットワークである depthnet nano を導入し,エンコーダ・デコーダ設計原理に基づくネットワーク設計プロトタイピングと機械駆動設計探索を組み合わせる。
その結果,高度にカスタマイズされたマクロ構造設計とマイクロ構造設計と,組込み深度推定のタスクに適した自己正規化特性を備えた,コンパクトなディープニューラルネットワークが実現した。
提案されたDepthNet Nanoは、高度に効率的なネットワークアーキテクチャ(例えば、Alhashimなどよりも24倍小さく42倍少ないMAC操作)を持ち、NYU-Depth V2およびKITTIデータセットの最先端ネットワークと同等のパフォーマンスを実現している。
さらに、Jetson AGX Xavier の組み込みモジュールにおける推論速度とエネルギー効率に関する実験では、DepthNet Nano の様々な解像度と電力予算での有効性(例えば、KITTIの30W電力予算で384 X 1280 で ~14 FPS と >0.46 画像/秒/ワット)が示されている。
関連論文リスト
- Optimized Deployment of Deep Neural Networks for Visual Pose Estimation
on Nano-drones [9.806742394395322]
小型無人航空機(UAV)は小型化が進み、屋内ナビゲーションや人体監視といった新しいタスクが可能になった。
本研究では,Deep Neural Networks (DNN) を用いた視覚的ポーズ推定タスクの自動最適化パイプラインを提案する。
その結果,アイソエラー時の予測遅延を最大3.22倍改善した。
論文 参考訳(メタデータ) (2024-02-23T11:35:57Z) - Quantization-aware Neural Architectural Search for Intrusion Detection [5.010685611319813]
本稿では、最先端NNの1000倍の規模を持つ量子化ニューラルネットワーク(NN)モデルを自動的に訓練し、進化させる設計手法を提案する。
FPGAにデプロイする際にこのネットワークが利用するLUTの数は2.3倍から8.5倍と小さく、性能は以前の作業に匹敵する。
論文 参考訳(メタデータ) (2023-11-07T18:35:29Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - DDCNet: Deep Dilated Convolutional Neural Network for Dense Prediction [0.0]
受容場(ERF)とネットワーク内の空間的特徴の高分解能は、高分解能密度推定を提供することに不可欠である。
空間的特徴の解像度を高く保ちながら、より大きな受容場を提供できるネットワークアーキテクチャを設計するための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-09T23:15:34Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - AttendNets: Tiny Deep Image Recognition Neural Networks for the Edge via
Visual Attention Condensers [81.17461895644003]
我々は、オンデバイス画像認識に適した、低精度でコンパクトなディープニューラルネットワークであるAttendNetsを紹介する。
AttendNetsは、視覚的注意の凝縮に基づく深い自己注意アーキテクチャを持っている。
その結果、AttendNetsは、いくつかのディープニューラルネットワークと比較して、アーキテクチャと計算の複雑さが著しく低いことが示された。
論文 参考訳(メタデータ) (2020-09-30T01:53:17Z) - EmotionNet Nano: An Efficient Deep Convolutional Neural Network Design
for Real-time Facial Expression Recognition [75.74756992992147]
本研究では,人間と機械の協調設計戦略によって構築された,効率的な深層畳み込みニューラルネットワークであるEmotionNet Nanoを提案する。
EmotionNet Nanoの2つの異なるバリエーションが提示され、それぞれがアーキテクチャと計算の複雑さと精度のトレードオフを持っている。
提案するEmotionNet Nanoネットワークは,実時間推定速度(例えば,15Wおよび30Wで$>25$ FPSと$>70$ FPS)と高エネルギー効率を実現した。
論文 参考訳(メタデータ) (2020-06-29T00:48:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。