論文の概要: Memory-Efficient Hierarchical Neural Architecture Search for Image
Restoration
- arxiv url: http://arxiv.org/abs/2012.13212v2
- Date: Mon, 28 Dec 2020 03:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 15:10:52.671712
- Title: Memory-Efficient Hierarchical Neural Architecture Search for Image
Restoration
- Title(参考訳): 画像復元のためのメモリ効率の高い階層型ニューラルネットワーク探索
- Authors: Haokui Zhang, Ying Li, Chengrong Gong, Hao Chen, Zongwen Bai, Chunhua
Shen
- Abstract要約: メモリ効率の高い階層型NAS HiNAS(HiNAS)を提案する。
単一の GTX1080Ti GPU では、BSD 500 でネットワークを消すのに約 1 時間、DIV2K で超解像構造を探すのに 3.5 時間しかかかりません。
- 参考スコア(独自算出の注目度): 68.6505473346005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, much attention has been spent on neural architecture search (NAS)
approaches, which often outperform manually designed architectures on highlevel
vision tasks. Inspired by this, we attempt to leverage NAS technique to
automatically design efficient network architectures for low-level image
restoration tasks. In this paper, we propose a memory-efficient hierarchical
NAS HiNAS (HiNAS) and apply to two such tasks: image denoising and image
super-resolution. HiNAS adopts gradient based search strategies and builds an
flexible hierarchical search space, including inner search space and outer
search space, which in charge of designing cell architectures and deciding cell
widths, respectively. For inner search space, we propose layerwise architecture
sharing strategy (LWAS), resulting in more flexible architectures and better
performance. For outer search space, we propose cell sharing strategy to save
memory, and considerably accelerate the search speed. The proposed HiNAS is
both memory and computation efficient. With a single GTX1080Ti GPU, it takes
only about 1 hour for searching for denoising network on BSD 500 and 3.5 hours
for searching for the super-resolution structure on DIV2K. Experimental results
show that the architectures found by HiNAS have fewer parameters and enjoy a
faster inference speed, while achieving highly competitive performance compared
with state-of-the-art methods.
- Abstract(参考訳): 近年,高レベル視覚タスクにおいて,手作業で設計したアーキテクチャを上回っているニューラル・アーキテクチャ・サーチ(nas)アプローチに注目が集まっている。
そこで我々はNAS技術を活用し,低レベル画像復元作業のための効率的なネットワークアーキテクチャを設計する。
本稿では,メモリ効率の高い階層型NAS HiNAS(HiNAS)を提案する。
hinasは勾配に基づく検索戦略を採用し、内部検索空間と外部検索空間を含む柔軟な階層検索空間を構築し、それぞれセルアーキテクチャの設計とセル幅の決定を担当している。
内部探索空間に対して,レイヤワイドアーキテクチャ共有戦略(LWAS)を提案する。
外部探索空間に対しては,メモリを節約し,検索速度を大幅に高速化するセル共有戦略を提案する。
提案したHiNASはメモリと計算の効率が良い。
単一のgtx1080ti gpuで、bsd 500でデノイジングネットワークを探すのに1時間、div2kで超解像構造を探すのに3.5時間しかかからない。
実験結果から,HiNASが検出したアーキテクチャはパラメータが少なく,推論速度も高速であり,最先端の手法と比較して高い競争性能が得られた。
関連論文リスト
- Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - L$^{2}$NAS: Learning to Optimize Neural Architectures via
Continuous-Action Reinforcement Learning [23.25155249879658]
微分可能なアーキテクチャサーチ(NAS)は、ディープニューラルネットワーク設計において顕著な結果を得た。
L$2$は,DART201ベンチマークやNASS,Imse-for-All検索ポリシで,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-09-25T19:26:30Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - BNAS:An Efficient Neural Architecture Search Approach Using Broad
Scalable Architecture [62.587982139871976]
我々はBCNN(Broad Convolutional Neural Network)と呼ばれる広義のスケーラブルなアーキテクチャを精巧に設計するBNAS(Broad Neural Architecture Search)を提案する。
BNASは0.19日であり、ENASよりも2.37倍安い。
論文 参考訳(メタデータ) (2020-01-18T15:07:55Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。