論文の概要: Lightweight Monocular Depth with a Novel Neural Architecture Search
Method
- arxiv url: http://arxiv.org/abs/2108.11105v1
- Date: Wed, 25 Aug 2021 08:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 17:40:01.598600
- Title: Lightweight Monocular Depth with a Novel Neural Architecture Search
Method
- Title(参考訳): ニューラルアーキテクチャ探索法による軽量単分子深度
- Authors: Lam Huynh, Phong Nguyen, Jiri Matas, Esa Rahtu, Janne Heikkila
- Abstract要約: 本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 46.97673710849343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel neural architecture search method, called LiDNAS,
for generating lightweight monocular depth estimation models. Unlike previous
neural architecture search (NAS) approaches, where finding optimized networks
are computationally highly demanding, the introduced novel Assisted Tabu Search
leads to efficient architecture exploration. Moreover, we construct the search
space on a pre-defined backbone network to balance layer diversity and search
space size. The LiDNAS method outperforms the state-of-the-art NAS approach,
proposed for disparity and depth estimation, in terms of search efficiency and
output model performance. The LiDNAS optimized models achieve results superior
to compact depth estimation state-of-the-art on NYU-Depth-v2, KITTI, and
ScanNet, while being 7%-500% more compact in size, i.e the number of model
parameters.
- Abstract(参考訳): 本稿では,軽量な単眼深度推定モデルを生成するための新しいニューラルネットワーク探索法,lidnasを提案する。
最適化されたネットワークを見つけるという従来のニューラルネットワーク探索(NAS)アプローチとは異なり、新しいAssisted Tabu Searchは効率的なアーキテクチャ探索をもたらす。
さらに,階層の多様性と探索空間サイズをバランスさせるために,事前定義されたバックボーンネットワーク上で探索空間を構築する。
lidnas法は,検索効率と出力モデル性能の観点から,差と深さ推定のために提案された最先端のnasアプローチを上回っている。
lidnaの最適化されたモデルは、nyu-depth-v2、kitti、scannetのコンパクトな深さ推定よりも優れた結果が得られるが、サイズは7%-500%、すなわちモデルパラメータの数である。
関連論文リスト
- FlatNAS: optimizing Flatness in Neural Architecture Search for
Out-of-Distribution Robustness [3.724847012963521]
本研究では、FlatNAS(Flat Neural Architecture Search)と呼ばれる新しいNASソリューションを提案する。
シャープネス・アウェア・ミニマライゼーション(SAM)を用いた1つのNN最適化と頑健さから重みへの摂動に基づく新しいメリット像の相互作用を探索する。
NAS設計モデルのOODロバスト性は、文献における一般的なベンチマークデータセットを用いて、入力データの破損に対するロバスト性に着目して評価される。
論文 参考訳(メタデータ) (2024-02-29T12:33:14Z) - SVD-NAS: Coupling Low-Rank Approximation and Neural Architecture Search [7.221206118679026]
本研究では,低ランク近似とニューラルアーキテクチャ探索の領域を結合したSVD-NASフレームワークを提案する。
その結果、SVD-NASは、データ制限問題設定における最先端手法よりも、ImageNet上で2.06-12.85pp高い精度を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-22T15:41:28Z) - Fast Neural Architecture Search for Lightweight Dense Prediction
Networks [41.605107921584775]
本稿では,軽量な高密度予測ニューラルアーキテクチャサーチ(NAS)フレームワーク LDP を提案する。
定義済みの一般的なバックボーンから始めて、LDPは効率的なアーキテクチャ探索のためにAssisted Tabu Searchという小説を適用した。
実験の結果,提案したフレームワークは,テスト済みの高密度予測タスクに対して一貫した改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2022-03-03T20:17:10Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - PV-NAS: Practical Neural Architecture Search for Video Recognition [83.77236063613579]
ビデオタスクのためのディープニューラルネットワークは高度にカスタマイズされており、そのようなネットワークの設計にはドメインの専門家と高価な試行錯誤テストが必要である。
ネットワークアーキテクチャ検索の最近の進歩により、画像認識性能は大幅に向上した。
本研究では,実用的ビデオニューラルアーキテクチャ探索(PV-NAS)を提案する。
論文 参考訳(メタデータ) (2020-11-02T08:50:23Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - Hyperparameter Optimization in Neural Networks via Structured Sparse
Recovery [54.60327265077322]
スパースリカバリ法のレンズを用いて,ニューラルネットワークの自動設計における2つの重要な問題について検討する。
本論文の前半では,HPOと構造的スパースリカバリの新たな接続を確立する。
本論文の第2部では,NASと構造的スパース回復の関連性を確立する。
論文 参考訳(メタデータ) (2020-07-07T00:57:09Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Bonsai-Net: One-Shot Neural Architecture Search via Differentiable
Pruners [1.4180331276028662]
ワンショットニューラルアーキテクチャサーチ(NAS)は、最先端のモデルを発見する際の計算コストを最小限にすることを目的としている。
緩和された検索空間を探索するために,効率的なワンショットNAS手法であるBonsai-Netを提案する。
論文 参考訳(メタデータ) (2020-06-12T14:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。