論文の概要: Fast Neural Architecture Search for Lightweight Dense Prediction
Networks
- arxiv url: http://arxiv.org/abs/2203.01994v2
- Date: Mon, 7 Mar 2022 05:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 13:08:13.083220
- Title: Fast Neural Architecture Search for Lightweight Dense Prediction
Networks
- Title(参考訳): 軽量高密度予測ネットワークのための高速ニューラルネットワーク探索
- Authors: Lam Huynh, Esa Rahtu, Jiri Matas, Janne Heikkila
- Abstract要約: 本稿では,軽量な高密度予測ニューラルアーキテクチャサーチ(NAS)フレームワーク LDP を提案する。
定義済みの一般的なバックボーンから始めて、LDPは効率的なアーキテクチャ探索のためにAssisted Tabu Searchという小説を適用した。
実験の結果,提案したフレームワークは,テスト済みの高密度予測タスクに対して一貫した改善をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 41.605107921584775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LDP, a lightweight dense prediction neural architecture search
(NAS) framework. Starting from a pre-defined generic backbone, LDP applies the
novel Assisted Tabu Search for efficient architecture exploration. LDP is fast
and suitable for various dense estimation problems, unlike previous NAS methods
that are either computational demanding or deployed only for a single subtask.
The performance of LPD is evaluated on monocular depth estimation, semantic
segmentation, and image super-resolution tasks on diverse datasets, including
NYU-Depth-v2, KITTI, Cityscapes, COCO-stuff, DIV2K, Set5, Set14, BSD100,
Urban100. Experiments show that the proposed framework yields consistent
improvements on all tested dense prediction tasks, while being $5\%-315\%$ more
compact in terms of the number of model parameters than prior arts.
- Abstract(参考訳): 本稿では,軽量な高密度予測ニューラルアーキテクチャ探索(NAS)フレームワーク LDP を提案する。
LDPは定義済みの一般的なバックボーンから始まり、効率的なアーキテクチャ探索のためにAssisted Tabu Searchという小説を適用している。
ldpは、計算要求または単一のサブタスクにのみデプロイされる以前のnasメソッドとは異なり、様々な密集した推定問題に適している。
LPDの性能は、NYU-Depth-v2、KITTI、Cityscapes、COCO-stuff、DIV2K、Set5、Set14、BSD100、Urban100を含む様々なデータセット上の単眼深度推定、セマンティックセグメンテーション、画像超解像タスクに基づいて評価される。
実験により,提案手法は,従来手法よりもモデルパラメータ数に関して,5\%-315\%$のコンパクトさを保ちながら,すべての密集した予測タスクに対して一貫した改善が得られた。
関連論文リスト
- Toward Edge-Efficient Dense Predictions with Synergistic Multi-Task
Neural Architecture Search [22.62389136288258]
エッジプラットフォーム上で効率的な高密度予測を開発する上での課題に対処する,新しい,スケーラブルなソリューションを提案する。
最初の重要な洞察は、マルチタスクラーニング(MTL)とハードウェア対応のニューラルアーキテクチャサーチ(NAS)が、デバイス上のディエンス予測(DP)に多大な利益をもたらすためにシナジーで機能できることである。
JAReDは、望ましくないノイズの最大88%を低減し、同時に精度を向上する。
論文 参考訳(メタデータ) (2022-10-04T04:49:08Z) - Tiered Pruning for Efficient Differentialble Inference-Aware Neural
Architecture Search [0.0]
我々は、メモリと計算の複雑さで内部の隠された次元を探索できるDNASのための双方向構築ブロックを紹介した。
第2に,探索中にスーパーネットの層内でブロックを刈り取るアルゴリズムを提案する。
第3に,探索中に不要な層を刈り取る新しい手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T18:03:54Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Finding Non-Uniform Quantization Schemes using Multi-Task Gaussian
Processes [12.798516310559375]
その結果,最後の層では精度が著しく低いため,メモリの節約を図りながら精度の低下が最小限に抑えられることがわかった。
我々は,VGG,ResNet,GoogLeNetアーキテクチャを用いて,CIFAR10およびImageNetデータセット上で実験を行った。
論文 参考訳(メタデータ) (2020-07-15T15:16:18Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。