論文の概要: Distilling Optimal Neural Networks: Rapid Search in Diverse Spaces
- arxiv url: http://arxiv.org/abs/2012.08859v1
- Date: Wed, 16 Dec 2020 11:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 08:12:43.706577
- Title: Distilling Optimal Neural Networks: Rapid Search in Diverse Spaces
- Title(参考訳): 最適ニューラルネットワークの蒸留: 拡散空間における高速探索
- Authors: Bert Moons, Parham Noorzad, Andrii Skliar, Giovanni Mariani, Dushyant
Mehta, Chris Lott, Tijmen Blankevoort
- Abstract要約: DONNA(Distilling Optimal Neural Network Architectures)は、高速ニューラルネットワーク探索と探索空間探索のための新しいパイプラインである。
ImageNet分類では、DONNAが発見したアーキテクチャはNvidia V100 GPUのEfficientNet-B0やMobileNetV2よりも20%高速で、Samsung S20スマートフォンのMobileNetV2-1.4xよりも0.5%高速である。
- 参考スコア(独自算出の注目度): 16.920328058816338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents DONNA (Distilling Optimal Neural Network Architectures), a
novel pipeline for rapid neural architecture search and search space
exploration, targeting multiple different hardware platforms and user
scenarios. In DONNA, a search consists of three phases. First, an accuracy
predictor is built for a diverse search space using blockwise knowledge
distillation. This predictor enables searching across diverse
macro-architectural network parameters such as layer types, attention
mechanisms, and channel widths, as well as across micro-architectural
parameters such as block repeats, kernel sizes, and expansion rates. Second, a
rapid evolutionary search phase finds a Pareto-optimal set of architectures in
terms of accuracy and latency for any scenario using the predictor and
on-device measurements. Third, Pareto-optimal models can be quickly finetuned
to full accuracy. With this approach, DONNA finds architectures that outperform
the state of the art. In ImageNet classification, architectures found by DONNA
are 20% faster than EfficientNet-B0 and MobileNetV2 on a Nvidia V100 GPU at
similar accuracy and 10% faster with 0.5% higher accuracy than MobileNetV2-1.4x
on a Samsung S20 smartphone. In addition to neural architecture search, DONNA
is used for search-space exploration and hardware-aware model compression.
- Abstract(参考訳): DONNA(Distilling Optimal Neural Network Architectures)は、複数の異なるハードウェアプラットフォームとユーザシナリオをターゲットにした、高速なニューラルネットワーク検索と検索空間探索のための新しいパイプラインである。
DONNAでは、探索は3つのフェーズで構成される。
まず, ブロックワイド知識蒸留を用いて, 多様な探索空間に対して精度予測器を構築する。
この予測器は、レイヤタイプ、アテンション機構、チャネル幅などの様々なマクロアーキテクチャネットワークパラメータを探索し、ブロックリピート、カーネルサイズ、拡張レートなどのマイクロアーキテクチャパラメータを探索することができる。
第二に、急激な進化的探索フェーズは、予測器とデバイス上の測定値を用いて、あらゆるシナリオの精度とレイテンシの観点から、パレート最適化アーキテクチャの集合を見つける。
第3に、パレート最適モデルは、完全精度で迅速に微調整できる。
このアプローチでは、donnaは芸術の状態を上回っているアーキテクチャを見つける。
ImageNet分類では、DONNAが発見したアーキテクチャはNvidia V100 GPUのEfficientNet-B0やMobileNetV2より20%高速で、Samsung S20スマートフォンのMobileNetV2-1.4xより10%高速で0.5%高速である。
ニューラルネットワーク検索に加えて、DONNAは検索空間探索やハードウェア対応モデル圧縮にも使用されている。
関連論文リスト
- Flexible Channel Dimensions for Differentiable Architecture Search [50.33956216274694]
本稿では,効率的な動的チャネル割当アルゴリズムを用いた新しい微分可能なニューラルアーキテクチャ探索法を提案する。
提案するフレームワークは,タスク精度と推論遅延において,従来の手法と等価なDNNアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-06-13T15:21:38Z) - DASS: Differentiable Architecture Search for Sparse neural networks [0.5735035463793009]
識別可能なアーキテクチャ探索手法により高密度ネットワーク用に設計されたアーキテクチャは,プルーニング機構を適用した場合,有効ではないことがわかった。
本稿では,スパシティフレンドリなニューラルアーキテクチャを探索する新しい手法を提案する。
検索空間に2つの新しいスパース操作を追加し、探索目的を変更することでこれを行う。
論文 参考訳(メタデータ) (2022-07-14T14:53:50Z) - Profiling Neural Blocks and Design Spaces for Mobile Neural Architecture
Search [21.48915618572691]
Once-for-All(MobileNetV3)、ProxylessNAS、ResNetファミリを構築するために使用されるニューラルネットワークブロックを分析する。
探索空間を縮小した検索は、元の検索空間を探索するよりも、精度の高いレイテンシフロンティアを生成することを示す。
論文 参考訳(メタデータ) (2021-09-25T19:34:45Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - FBNetV2: Differentiable Neural Architecture Search for Spatial and
Channel Dimensions [70.59851564292828]
微分可能なニューラルネットワーク探索(DNAS)は、最先端で効率的なニューラルネットワークの設計において大きな成功を収めている。
メモリと計算効率のよいDNAS変異体DMaskingNASを提案する。
このアルゴリズムは、検索スペースを従来のDNASよりも最大1014倍に拡張する。
論文 参考訳(メタデータ) (2020-04-12T08:52:15Z) - Latency-Aware Differentiable Neural Architecture Search [113.35689580508343]
近年、探索コストの低さと検索空間設計の柔軟性から、微分可能なニューラルネットワーク探索法が人気を博している。
しかし、これらの手法はネットワーク最適化の難しさに悩まされており、検索されたネットワークはハードウェアに不便な場合が多い。
本稿では,この問題を最適化に微分可能な遅延損失項を追加することにより,精度とレイテンシのトレードオフをバランス係数で行うことができる。
論文 参考訳(メタデータ) (2020-01-17T15:55:21Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。