論文の概要: DSNAS: Direct Neural Architecture Search without Parameter Retraining
- arxiv url: http://arxiv.org/abs/2002.09128v2
- Date: Wed, 1 Apr 2020 00:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:33:02.250619
- Title: DSNAS: Direct Neural Architecture Search without Parameter Retraining
- Title(参考訳): DSNAS:パラメータリトレーニングなしの直接ニューラルアーキテクチャ探索
- Authors: Shoukang Hu, Sirui Xie, Hehui Zheng, Chunxiao Liu, Jianping Shi,
Xunying Liu, Dahua Lin
- Abstract要約: この観測に基づいて,タスク固有のエンドツーエンドであるNASの新たな問題定義を提案する。
低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なNASフレームワークであるDSNASを提案する。
DSNASは、420GPU時間でImageNetで同等の精度(74.4%)のネットワークを発見し、総時間を34%以上削減した。
- 参考スコア(独自算出の注目度): 112.02966105995641
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: If NAS methods are solutions, what is the problem? Most existing NAS methods
require two-stage parameter optimization. However, performance of the same
architecture in the two stages correlates poorly. In this work, we propose a
new problem definition for NAS, task-specific end-to-end, based on this
observation. We argue that given a computer vision task for which a NAS method
is expected, this definition can reduce the vaguely-defined NAS evaluation to
i) accuracy of this task and ii) the total computation consumed to finally
obtain a model with satisfying accuracy. Seeing that most existing methods do
not solve this problem directly, we propose DSNAS, an efficient differentiable
NAS framework that simultaneously optimizes architecture and parameters with a
low-biased Monte Carlo estimate. Child networks derived from DSNAS can be
deployed directly without parameter retraining. Comparing with two-stage
methods, DSNAS successfully discovers networks with comparable accuracy (74.4%)
on ImageNet in 420 GPU hours, reducing the total time by more than 34%. Our
implementation is available at https://github.com/SNAS-Series/SNAS-Series.
- Abstract(参考訳): NASメソッドがソリューションである場合、問題は何か?
既存のNAS手法の多くは2段階のパラメータ最適化を必要とする。
しかし、2つの段階における同じアーキテクチャのパフォーマンスは相関性が低い。
本研究では,この観測に基づいて,タスク固有のエンドツーエンドであるNASの新しい問題定義を提案する。
我々は、NAS法が期待されるコンピュータビジョンタスクを考えると、この定義はあいまいに定義されたNAS評価を減らすことができると論じる。
一 この作業の正確性及び正確性
二 計算総量を用いて、最終的に精度を満足するモデルを得ること。
既存の手法が直接この問題を解決しないのを見て,我々は,低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なnasフレームワークであるdsnasを提案する。
DSNASから派生した子ネットワークはパラメータ再トレーニングなしで直接デプロイできる。
2段階の手法と比較すると、dsnasはimagenetで同等の精度(74.4%)のネットワークを420gpu時間で発見し、合計時間を34%以上削減した。
実装はhttps://github.com/SNAS-Series/SNAS-Seriesで公開しています。
関連論文リスト
- Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets [55.2118691522524]
Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:00:35Z) - When NAS Meets Trees: An Efficient Algorithm for Neural Architecture
Search [117.89827740405694]
ニューラルアーキテクチャサーチ(NAS)の主な課題は、巨大なサーチ空間において賢明に探索する方法を設計することである。
少数のアーキテクチャを探索することで探索効率を向上するNAS(TNAS with Tree)手法を提案する。
TNASは、NAS-Bench-201の4時間でテスト精度94.37%のCIFAR-10のグローバルな最適アーキテクチャを発見した。
論文 参考訳(メタデータ) (2022-04-11T07:34:21Z) - TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework [6.895590095853327]
微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
論文 参考訳(メタデータ) (2021-11-06T14:19:36Z) - Pi-NAS: Improving Neural Architecture Search by Reducing Supernet
Training Consistency Shift [128.32670289503025]
最近提案されたニューラルアーキテクチャサーチ (NAS) 手法は,スーパーネット上で数十億のアーキテクチャを共存させ,その潜在的な精度を推定する。
アーキテクチャの予測精度と実際の能力のランキング相関は誤りであり、既存のNAS手法のジレンマを引き起こす。
このランク付け相関問題は,特徴シフトやパラメータシフトを含む,スーパーネットトレーニングの整合性シフトに起因している。
この2つのシフトを、Pi-NASと呼ばれる非自明なスーパーネットPiモデルを用いて同時に解決する。
論文 参考訳(メタデータ) (2021-08-22T09:08:48Z) - Accelerating Neural Architecture Search via Proxy Data [17.86463546971522]
ニューラルアーキテクチャ探索(NAS)に適した新しいプロキシデータ選択法を提案する。
提案された選択でDARTSを実行するには、CIFAR-10で40分、単一のGPUでImageNetで7.5時間しかかからない。
提案した選択を用いてImageNetで検索したアーキテクチャが逆CIFAR-10に転送されると、2.4%の最先端テストエラーが生成される。
論文 参考訳(メタデータ) (2021-06-09T03:08:53Z) - AdvantageNAS: Efficient Neural Architecture Search with Credit
Assignment [23.988393741948485]
ワンショット・スパース伝播NAS(AdvantageNAS)の新たな探索戦略を提案する。
アドバンテージNASは、アーキテクチャ更新の勾配推定にクレジット割り当てを導入することで検索効率を向上させるグラデーションベースのアプローチです。
NAS-Bench-201およびPTBデータセットの実験は、AdvantageNASが限られた時間予算でより高いパフォーマンスのアーキテクチャを発見することを示しています。
論文 参考訳(メタデータ) (2020-12-11T05:45:03Z) - Efficient Neural Architecture Search for End-to-end Speech Recognition
via Straight-Through Gradients [17.501966450686282]
そこで我々は,ST-NASと呼ばれるStraight-Through(ST)勾配を用いた効率的なニューラルネットワーク探索法を開発した。
広くベンチマークされた80時間のWSJと300時間のSwitchboardデータセットに対する実験は、ST-NASによって誘導されるアーキテクチャが、2つのデータセットで設計されたアーキテクチャを大幅に上回っていることを示している。
また,ST-NASのアーキテクチャ伝達性やメモリおよび時間における計算コストの低減といった強度についても報告する。
論文 参考訳(メタデータ) (2020-11-11T09:18:58Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Few-shot Neural Architecture Search [35.28010196935195]
サブスーパーネットと呼ばれる複数のスーパーネットワークを用いて、検索空間の異なる領域をカバーし、望ましくないコ・アダプションを緩和する数ショットNASを提案する。
ImageNetでは、600MB FLOPSで80.5%、238 MFLOPSで77.5%のTop-1精度に達するモデルが見つかる。
論文 参考訳(メタデータ) (2020-06-11T22:36:01Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。