論文の概要: MobileDepth: Efficient Monocular Depth Prediction on Mobile Devices
- arxiv url: http://arxiv.org/abs/2011.10189v1
- Date: Fri, 20 Nov 2020 03:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:39:19.701854
- Title: MobileDepth: Efficient Monocular Depth Prediction on Mobile Devices
- Title(参考訳): MobileDepth: モバイルデバイス上での効率的な単眼深度予測
- Authors: Yekai Wang
- Abstract要約: 深度予測のための完全な畳み込みネットワークアーキテクチャが提案され、RegNetY 06をエンコーダとし、分割結合シャッフルブロックをデコーダとする。
モバイルカメラから撮影したモノクロ画像から深度マップを予測するために,CNNモデルをロードするAndroidアプリケーションを開発した。
ネットワークはNYU Depth v2データセット上で82.7%のデルタ1精度を達成すると同時に、ARM A76 CPU上では62msのレイテンシしか持たない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth prediction is fundamental for many useful applications on computer
vision and robotic systems. On mobile phones, the performance of some useful
applications such as augmented reality, autofocus and so on could be enhanced
by accurate depth prediction. In this work, an efficient fully convolutional
network architecture for depth prediction has been proposed, which uses RegNetY
06 as the encoder and split-concatenate shuffle blocks as decoder. At the same
time, an appropriate combination of data augmentation, hyper-parameters and
loss functions to efficiently train the lightweight network has been provided.
Also, an Android application has been developed which can load CNN models to
predict depth map by the monocular images captured from the mobile camera and
evaluate the average latency and frame per second of the models. As a result,
the network achieves 82.7% {\delta}1 accuracy on NYU Depth v2 dataset and at
the same time, have only 62ms latency on ARM A76 CPUs so that it can predict
the depth map from the mobile camera in real-time.
- Abstract(参考訳): 深度予測は、コンピュータビジョンやロボットシステムにおける多くの有用な応用に基礎を置いている。
携帯電話では,拡張現実やオートフォーカスなどの有用なアプリケーションの性能を,正確な深度予測によって向上させることができる。
本研究では,エンコーダとしてregnety 06を,デコーダとして分割結合型シャッフルブロックを使用する,深さ予測のための効率的な完全畳み込みネットワークアーキテクチャを提案する。
同時に、軽量ネットワークを効率的にトレーニングするためのデータ拡張、ハイパーパラメータ、損失関数の適切な組み合わせも提供された。
また、cnnモデルを読み込んで、モバイルカメラから撮影した単眼画像によって深度マップを予測し、モデルの平均レイテンシとフレームを評価できるandroidアプリケーションも開発されている。
その結果、ネットワークはNYU Depth v2データセット上で82.7%の精度を達成すると同時に、ARM A76 CPU上で62msのレイテンシしか持たないため、モバイルカメラからの深度マップをリアルタイムで予測できる。
関連論文リスト
- Depth Estimation From Monocular Images With Enhanced Encoder-Decoder Architecture [0.0]
本稿では,エンコーダデコーダアーキテクチャを用いた新しい深層学習手法を提案する。
Inception-ResNet-v2モデルはエンコーダとして利用される。
NYU Depth V2データセットの実験結果は、我々のモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-15T13:46:19Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - PyNet-V2 Mobile: Efficient On-Device Photo Processing With Neural
Networks [115.97113917000145]
エッジデバイス用に設計された新しいPyNET-V2 Mobile CNNアーキテクチャを提案する。
提案アーキテクチャでは,携帯電話から直接RAW 12MPの写真を1.5秒で処理することができる。
提案したアーキテクチャは,最新のモバイルAIアクセラレータとも互換性があることが示されている。
論文 参考訳(メタデータ) (2022-11-08T17:18:01Z) - Efficient Single-Image Depth Estimation on Mobile Devices, Mobile AI &
AIM 2022 Challenge: Report [108.88637766066759]
ディープラーニングベースの単一画像深度推定ソリューションは、IoTプラットフォームとスマートフォン上でリアルタイムのパフォーマンスを示すことができる。
このチャレンジで開発されたモデルは、AndroidやLinuxベースのモバイルデバイスとも互換性がある。
論文 参考訳(メタデータ) (2022-11-07T22:20:07Z) - MobileDenseNet: A new approach to object detection on mobile devices [9.05607520128194]
本稿の主な目的は、高速かつリアルタイムな効率を維持しつつ、最先端のアルゴリズムの精度を高めることである。
組込みシステムに適したMobileDenseNetという新しいネットワークを構築した。
また,小型物体の検出を支援するモバイル機器用軽量ネックFCPNLiteを開発した。
論文 参考訳(メタデータ) (2022-07-22T12:13:59Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - MoViNets: Mobile Video Networks for Efficient Video Recognition [52.49314494202433]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識では正確だが、大きな計算とメモリ予算を必要とする。
本稿では,3次元CNNのピークメモリ使用量を大幅に削減しつつ,計算効率を向上させる3段階の手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:06:38Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。