論文の概要: ZiCo: Zero-shot NAS via Inverse Coefficient of Variation on Gradients
- arxiv url: http://arxiv.org/abs/2301.11300v1
- Date: Thu, 26 Jan 2023 18:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 12:48:30.950839
- Title: ZiCo: Zero-shot NAS via Inverse Coefficient of Variation on Gradients
- Title(参考訳): zico:勾配の変動の逆係数によるゼロショットnas
- Authors: Guihong Li, Yuedong Yang, Kartikeya Bhardwaj, Radu Marculescu
- Abstract要約: 我々は、#Paramsよりも一貫して動作する新しいゼロショットプロキシZiCoを提案する。
我々は、ZiCoベースのNASが、イメージネットで0.4GPU日以内に450M、600M、1000M FLOPの推論予算の下で78.1%、79.4%、80.4%のテスト精度で最適なアーキテクチャを見つけることができることを示した。
- 参考スコア(独自算出の注目度): 17.139381064317778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) is widely used to automatically design the
neural network with the best performance among a large number of candidate
architectures. To reduce the search time, zero-shot NAS aims at designing
training-free proxies that can predict the test performance of a given
architecture. However, as shown recently, none of the zero-shot proxies
proposed to date can actually work consistently better than a naive proxy,
namely, the number of network parameters (#Params). To improve this state of
affairs, as the main theoretical contribution, we first reveal how some
specific gradient properties across different samples impact the convergence
rate and generalization capacity of neural networks. Based on this theoretical
analysis, we propose a new zero-shot proxy, ZiCo, the first proxy that works
consistently better than #Params. We demonstrate that ZiCo works better than
State-Of-The-Art (SOTA) proxies on several popular NAS-Benchmarks (NASBench101,
NATSBench-SSS/TSS, TransNASBench-101) for multiple applications (e.g., image
classification/reconstruction and pixel-level prediction). Finally, we
demonstrate that the optimal architectures found via ZiCo are as competitive as
the ones found by one-shot and multi-shot NAS methods, but with much less
search time. For example, ZiCo-based NAS can find optimal architectures with
78.1%, 79.4%, and 80.4% test accuracy under inference budgets of 450M, 600M,
and 1000M FLOPs on ImageNet within 0.4 GPU days.
- Abstract(参考訳): neural architecture search (nas) は、多数の候補アーキテクチャの中で最適なパフォーマンスを持つニューラルネットワークを自動設計するために広く使われている。
検索時間を短縮するため、ゼロショットnasは、所定のアーキテクチャのテストパフォーマンスを予測するトレーニングフリープロキシを設計することを目的としている。
しかし、最近示したように、現在提案されているゼロショットプロキシは、実際にはネイティブなプロキシ、すなわちネットワークパラメータ(#param)よりも一貫して機能することができない。
この状況を改善するために、まず、異なるサンプルにまたがる特定の勾配特性が、ニューラルネットワークの収束速度と一般化能力にどのように影響するかを明らかにする。
この理論解析に基づいて、我々は#Paramsよりも一貫して動作する最初のプロキシであるZiCoというゼロショットプロキシを提案する。
我々は、複数のアプリケーション(画像分類/再構成や画素レベルの予測など)において、複数のNASベンチマーク(NASBench101, NATSBench-SSS/TSS, TransNASBench-101)上で、ZiCoがState-Of-The-Art(SOTA)プロキシよりも優れていることを示した。
最後に,zicoが採用する最適アーキテクチャは,単発および複数ショットのnas法と同等に競争力があるが,検索時間がはるかに少ないことを示す。
例えば、ZiCoベースのNASは、イメージネットで0.4GPU日以内に450M、600M、1000M FLOPの推論予算の下で78.1%、79.4%、80.4%のテスト精度で最適なアーキテクチャを見つけることができる。
関連論文リスト
- TG-NAS: Leveraging Zero-Cost Proxies with Transformer and Graph Convolution Networks for Efficient Neural Architecture Search [1.30891455653235]
TG-NASは、アーキテクチャのパフォーマンス予測のためのトレーニング不要プロキシを作成することを目的としている。
TG-NASはトランスフォーマーベースの演算子埋め込みジェネレータとグラフ畳み込みネットワーク(GCN)を利用してアーキテクチャ性能を予測する新しいモデルベースユニバーサルプロキシである。
TG-NASは従来のSOTA ZCプロキシ手法に比べて最大300倍の検索効率向上を実現している。
論文 参考訳(メタデータ) (2024-03-30T07:25:30Z) - Zero-Shot Neural Architecture Search: Challenges, Solutions, and Opportunities [58.67514819895494]
ゼロショットNASアプローチの背景にある主要な考え方は、ネットワークパラメータを訓練することなく、与えられたネットワークの精度を予測できるプロキシを設計することである。
本稿では,SOTA (State-of-the-art) ゼロショットNASアプローチを総合的にレビューし,比較することを目的とする。
論文 参考訳(メタデータ) (2023-07-05T03:07:00Z) - Are Neural Architecture Search Benchmarks Well Designed? A Deeper Look
Into Operation Importance [5.065947993017157]
我々は、広く使われているNAS-Bench-101、NAS-Bench-201、TransNAS-Bench-101ベンチマークを実証分析した。
性能範囲の上限に近いアーキテクチャを生成するためには,操作プールのサブセットのみが必要であることがわかった。
一貫性のある畳み込みレイヤは、アーキテクチャのパフォーマンスに最も影響していると考えています。
論文 参考訳(メタデータ) (2023-03-29T18:03:28Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - FNAS: Uncertainty-Aware Fast Neural Architecture Search [54.49650267859032]
強化学習(Reinforcement Learning, RL)に基づくニューラルアーキテクチャサーチ(NAS)は一般的に、収束性の向上を保証するが、巨大な計算資源の要求に悩まされる。
NASにおけるロールアウトプロセスとRLプロセスの収束を加速する汎用パイプラインを提案する。
Mobile Neural Architecture Search (MNAS)サーチスペースの実験では、提案するFast Neural Architecture Search (FNAS)が標準のRLベースのNASプロセスを10倍高速化することを示した。
論文 参考訳(メタデータ) (2021-05-25T06:32:52Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Zero-Cost Proxies for Lightweight NAS [19.906217380811373]
本研究では,従来の還元学習プロキシを評価し,検索中における複数のモデル間のランキング保持率を定量化する。
モデルスコアを計算するために,トレーニングデータの1つのミニバッチのみを使用するゼロコストプロキシのシリーズを提案する。
ゼロコストプロキシは3桁の計算量が少ないが、従来のプロキシとマッチし、さらに優れています。
論文 参考訳(メタデータ) (2021-01-20T13:59:52Z) - Few-shot Neural Architecture Search [35.28010196935195]
サブスーパーネットと呼ばれる複数のスーパーネットワークを用いて、検索空間の異なる領域をカバーし、望ましくないコ・アダプションを緩和する数ショットNASを提案する。
ImageNetでは、600MB FLOPSで80.5%、238 MFLOPSで77.5%のTop-1精度に達するモデルが見つかる。
論文 参考訳(メタデータ) (2020-06-11T22:36:01Z) - Powering One-shot Topological NAS with Stabilized Share-parameter Proxy [65.09967910722932]
ワンショットNAS法は、高性能モデルを発見するための訓練効率と能力が際立ったため、研究コミュニティから大きな関心を集めている。
本研究では,大規模Topology Augmented Search Spaceにおいて,高性能なネットワークアーキテクチャを探索することにより,ワンショットNASの向上を図る。
提案手法は,ImageNet 上の Multiply-Adds (MAdds) 制約下での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-05-21T08:18:55Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。