論文の概要: TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework
- arxiv url: http://arxiv.org/abs/2111.03892v4
- Date: Sat, 1 Jul 2023 12:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:25:51.737591
- Title: TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework
- Title(参考訳): TND-NAS:進歩的微分可能なNASフレームワークにおける非微分可能な目的に向けて
- Authors: Bo Lyu, Shiping Wen
- Abstract要約: 微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
- 参考スコア(独自算出の注目度): 6.895590095853327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search has gradually become the mainstream
research topic in the field of Neural Architecture Search (NAS) for its high
efficiency compared with the early NAS methods. Recent differentiable NAS also
aims at further improving the search performance and reducing the GPU-memory
consumption. However, these methods are no longer naturally capable of tackling
the non-differentiable objectives, e.g., energy, resource-constrained
efficiency, and other metrics, let alone the multi-objective search demands.
Researches in the multi-objective NAS field target this but requires vast
computational resources cause of the sole optimization of each candidate
architecture. In light of this discrepancy, we propose the TND-NAS, which is
with the merits of the high efficiency in differentiable NAS framework and the
compatibility among non-differentiable metrics in Multi-objective NAS. Under
the differentiable NAS framework, with the continuous relaxation of the search
space, TND-NAS has the architecture parameters been optimized in discrete
space, while resorting to the progressive search space shrinking by
architecture parameters. Our representative experiment takes two objectives
(Parameters, Accuracy) as an example, we achieve a series of high-performance
compact architectures on CIFAR10 (1.09M/3.3%, 2.4M/2.95%, 9.57M/2.54%) and
CIFAR100 (2.46M/18.3%, 5.46/16.73%, 12.88/15.20%) datasets. Favorably, compared
with other multi-objective NAS methods, TND-NAS is less time-consuming (1.3
GPU-days on NVIDIA 1080Ti, 1/6 of that in NSGA-Net), and can be conveniently
adapted to real-world NAS scenarios (resource-constrained,
platform-specialized).
- Abstract(参考訳): 差別化可能なアーキテクチャ検索は、ニューラルネットワーク検索(nas)の分野で、初期のnas法と比較して高い効率性のために、徐々に主要な研究テーマとなっている。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
しかし、これらの手法は、例えばエネルギー、資源制約された効率、その他のメトリクスなど、自然に微分不可能な目的に対処することができない。
多目的nasフィールドの研究は、これをターゲットとしているが、各候補アーキテクチャの唯一の最適化のために、膨大な計算リソースを必要とする。
この違いを踏まえて,多目的nasにおける微分可能nasフレームワークの高効率性と非微分可能メトリック間の互換性のメリットであるtnd-nasを提案する。
微分可能なnasフレームワークの下では、探索空間の連続的な緩和により、tnd-nasはアーキテクチャパラメータが離散空間で最適化されながら、アーキテクチャパラメータによって縮小されるプログレッシブ探索空間に頼る。
例えば、cifar10 (1.09m/3.3%, 2.4m/2.95%, 9.57m/2.54%) と cifar100 (2.46m/18.3%, 5.46/16.73%, 12.88/15.20%) のデータセット上で、高性能なコンパクトアーキテクチャを実現する。
他のマルチオブジェクトNAS法と比較して、TND-NASは時間(NVIDIA 1080Tiでは1.3GPU日、NSGA-Netでは1/6GPU日)が少なく、実世界のNASシナリオ(リソース制約、プラットフォーム特化)に便利に適応できる。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - AdvantageNAS: Efficient Neural Architecture Search with Credit
Assignment [23.988393741948485]
ワンショット・スパース伝播NAS(AdvantageNAS)の新たな探索戦略を提案する。
アドバンテージNASは、アーキテクチャ更新の勾配推定にクレジット割り当てを導入することで検索効率を向上させるグラデーションベースのアプローチです。
NAS-Bench-201およびPTBデータセットの実験は、AdvantageNASが限られた時間予算でより高いパフォーマンスのアーキテクチャを発見することを示しています。
論文 参考訳(メタデータ) (2020-12-11T05:45:03Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - DSNAS: Direct Neural Architecture Search without Parameter Retraining [112.02966105995641]
この観測に基づいて,タスク固有のエンドツーエンドであるNASの新たな問題定義を提案する。
低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なNASフレームワークであるDSNASを提案する。
DSNASは、420GPU時間でImageNetで同等の精度(74.4%)のネットワークを発見し、総時間を34%以上削減した。
論文 参考訳(メタデータ) (2020-02-21T04:41:47Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。