論文の概要: Efficient Multi-objective Neural Architecture Search Framework via
Policy Gradient Algorithm
- arxiv url: http://arxiv.org/abs/2111.03892v3
- Date: Mon, 12 Jun 2023 12:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:28:21.730536
- Title: Efficient Multi-objective Neural Architecture Search Framework via
Policy Gradient Algorithm
- Title(参考訳): ポリシー勾配アルゴリズムを用いた多目的ニューラルアーキテクチャ探索フレームワーク
- Authors: Bo Lyu, Shiping Wen
- Abstract要約: 微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
- 参考スコア(独自算出の注目度): 6.895590095853327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search has gradually become the mainstream
research topic in the field of Neural Architecture Search (NAS) for its high
efficiency compared with the early NAS (EA-based, RL-based) methods. Recent
differentiable NAS also aims at further improving the search performance and
reducing the GPU-memory consumption. However, these methods are no longer
naturally capable of tackling the non-differentiable objectives, e.g., energy,
resource-constrained efficiency, and other metrics, let alone the
multi-objective search demands. Researches in the multi-objective NAS field
target this but requires vast computational resources cause of the sole
optimization of each candidate architecture. In light of this discrepancy, we
propose the TND-NAS, which is with the merits of the high efficiency in
differentiable NAS framework and the compatibility among non-differentiable
metrics in Multi-objective NAS. Under the differentiable NAS framework, with
the continuous relaxation of the search space, TND-NAS has the architecture
parameters been optimized in discrete space, while resorting to the progressive
search space shrinking by architecture parameters. Our representative
experiment takes two objectives (Parameters, Accuracy) as an example, we
achieve a series of high-performance compact architectures on CIFAR10
(1.09M/3.3%, 2.4M/2.95%, 9.57M/2.54%) and CIFAR100 (2.46M/18.3%, 5.46/16.73%,
12.88/15.20%) datasets. Favorably, compared with other multi-objective NAS
methods, TND-NAS is less time-consuming (1.3 GPU-days on NVIDIA 1080Ti, 1/6 of
that in NSGA-Net), and can be conveniently adapted to real-world NAS scenarios
(resource-constrained, platform-specialized).
- Abstract(参考訳): 差別化可能なアーキテクチャ検索は、初期のnas(eaベース、rlベース)法に比べて高い効率性で、ニューラルネットワーク検索(nas)の分野で徐々に主流となっている。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
しかし、これらの手法は、例えばエネルギー、資源制約された効率、その他のメトリクスなど、自然に微分不可能な目的に対処することができない。
多目的nasフィールドの研究は、これをターゲットとしているが、各候補アーキテクチャの唯一の最適化のために、膨大な計算リソースを必要とする。
この違いを踏まえて,多目的nasにおける微分可能nasフレームワークの高効率性と非微分可能メトリック間の互換性のメリットであるtnd-nasを提案する。
微分可能なnasフレームワークの下では、探索空間の連続的な緩和により、tnd-nasはアーキテクチャパラメータが離散空間で最適化されながら、アーキテクチャパラメータによって縮小されるプログレッシブ探索空間に頼る。
例えば、cifar10 (1.09m/3.3%, 2.4m/2.95%, 9.57m/2.54%) と cifar100 (2.46m/18.3%, 5.46/16.73%, 12.88/15.20%) のデータセット上で、高性能なコンパクトアーキテクチャを実現する。
他のマルチオブジェクトNAS法と比較して、TND-NASは時間(NVIDIA 1080Tiでは1.3GPU日、NSGA-Netでは1/6GPU日)が少なく、実世界のNASシナリオ(リソース制約、プラットフォーム特化)に便利に適応できる。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - AdvantageNAS: Efficient Neural Architecture Search with Credit
Assignment [23.988393741948485]
ワンショット・スパース伝播NAS(AdvantageNAS)の新たな探索戦略を提案する。
アドバンテージNASは、アーキテクチャ更新の勾配推定にクレジット割り当てを導入することで検索効率を向上させるグラデーションベースのアプローチです。
NAS-Bench-201およびPTBデータセットの実験は、AdvantageNASが限られた時間予算でより高いパフォーマンスのアーキテクチャを発見することを示しています。
論文 参考訳(メタデータ) (2020-12-11T05:45:03Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - DSNAS: Direct Neural Architecture Search without Parameter Retraining [112.02966105995641]
この観測に基づいて,タスク固有のエンドツーエンドであるNASの新たな問題定義を提案する。
低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なNASフレームワークであるDSNASを提案する。
DSNASは、420GPU時間でImageNetで同等の精度(74.4%)のネットワークを発見し、総時間を34%以上削減した。
論文 参考訳(メタデータ) (2020-02-21T04:41:47Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。