論文の概要: Evolving Neural Architecture Using One Shot Model
- arxiv url: http://arxiv.org/abs/2012.12540v1
- Date: Wed, 23 Dec 2020 08:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:04:22.404229
- Title: Evolving Neural Architecture Using One Shot Model
- Title(参考訳): ワンショットモデルによるニューラルアーキテクチャの進化
- Authors: Nilotpal Sinha, Kuan-Wen Chen
- Abstract要約: EvNAS(Evolving Neural Architecture using One Shot Model)と呼ばれるNAS問題に単純な遺伝的アルゴリズムを適用する新しい手法を提案する。
EvNASはプロキシデータセット、すなわちアーキテクチャを検索する。
CIFAR-10 for 4.4 GPU day on a single GPU and achieve a top-1 test error of 2.47%。
アーキテクチャ探索問題の解法における進化的手法の可能性を示す。
- 参考スコア(独自算出の注目度): 5.188825486231326
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural Architecture Search (NAS) is emerging as a new research direction
which has the potential to replace the hand-crafted neural architectures
designed for specific tasks. Previous evolution based architecture search
requires high computational resources resulting in high search time. In this
work, we propose a novel way of applying a simple genetic algorithm to the NAS
problem called EvNAS (Evolving Neural Architecture using One Shot Model) which
reduces the search time significantly while still achieving better result than
previous evolution based methods. The architectures are represented by using
the architecture parameter of the one shot model which results in the weight
sharing among the architectures for a given population of architectures and
also weight inheritance from one generation to the next generation of
architectures. We propose a decoding technique for the architecture parameter
which is used to divert majority of the gradient information towards the given
architecture and is also used for improving the performance prediction of the
given architecture from the one shot model during the search process.
Furthermore, we use the accuracy of the partially trained architecture on the
validation data as a prediction of its fitness in order to reduce the search
time. EvNAS searches for the architecture on the proxy dataset i.e. CIFAR-10
for 4.4 GPU day on a single GPU and achieves top-1 test error of 2.47% with
3.63M parameters which is then transferred to CIFAR-100 and ImageNet achieving
top-1 error of 16.37% and top-5 error of 7.4% respectively. All of these
results show the potential of evolutionary methods in solving the architecture
search problem.
- Abstract(参考訳): ニューラルアーキテクチャ検索(nas)は、特定のタスク用に設計された手作りのニューラルアーキテクチャを置き換える可能性を秘めた、新たな研究方向として登場している。
従来の進化的アーキテクチャ探索は高い計算資源を必要とするため、探索時間が高い。
本研究では,nas問題に単純な遺伝的アルゴリズムを適用する新しい手法であるevnas(evolving neural architecture using one shot model)を提案する。
アーキテクチャは、1ショットモデルのアーキテクチャパラメータを用いて表現され、その結果、特定の数のアーキテクチャに対するアーキテクチャ間の重みの共有と、一世代から次世代のアーキテクチャへの重みの継承をもたらす。
本稿では,アーキテクチャパラメータの復号化手法を提案する。この手法は,勾配情報の大部分を与えられたアーキテクチャに分散させ,探索過程における1ショットモデルから与えられたアーキテクチャの性能予測を改善するためにも用いられる。
さらに,検証データに対する部分的に訓練されたアーキテクチャの精度を,その適合性の予測として活用し,探索時間を短縮した。
EvNASはプロキシデータセット、すなわち、アーキテクチャを検索する。
CIFAR-10 for 4.4 GPU day on a single GPU and achieved top-1 test error of 2.47% with 3.63M parameters that then transfer to CIFAR-100 and ImageNet achieved top-1 error of 16.37% and top-5 error of 7.4%。
これらの結果は,アーキテクチャ探索問題の解法における進化的手法の可能性を示している。
関連論文リスト
- Knowledge-aware Evolutionary Graph Neural Architecture Search [49.13787973318586]
グラフニューラルネットワーク検索(GNAS)は、特定のグラフタスクやデータセットに対して、高性能なグラフニューラルネットワークアーキテクチャをカスタマイズすることができる。
既存のGNAS手法は、探索効率を向上させる可能性のある事前知識を無視して、ゼロ知識状態からアーキテクチャを探し始める。
本研究では,新しいグラフデータセット上での多目的進化探索を高速化するために,そのような先行知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-11-26T11:32:45Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - NAAP-440 Dataset and Baseline for Neural Architecture Accuracy
Prediction [1.2183405753834562]
440のニューラルアーキテクチャのNAAP-440データセットを導入し、CIFAR10で定型レシピを用いてトレーニングした。
実験では、既製の回帰アルゴリズムを使用してトレーニングプロセスの最大10%を実行することで、アーキテクチャの精度を正確に予測できるだけでなく、より正確に予測できることが示されている。
このアプローチはNASベースの研究を加速するための強力なツールとなり、それによってその効率が劇的に向上する。
論文 参考訳(メタデータ) (2022-09-14T13:21:39Z) - Network Graph Based Neural Architecture Search [57.78724765340237]
我々は、対応するグラフを書き換えてニューラルネットワークを探索し、グラフ特性によるアーキテクチャ性能の予測を行う。
グラフ空間全体にわたって機械学習を行わないため、探索プロセスは極めて効率的である。
論文 参考訳(メタデータ) (2021-12-15T00:12:03Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - Neural Architecture Search using Covariance Matrix Adaptation Evolution
Strategy [6.8129169853808795]
本稿では,CMANASと呼ばれるニューラルネットワーク探索問題に対して,共分散行列適応進化戦略(CMA-ES)を適用する枠組みを提案する。
アーキテクチャは正規分布を用いてモデル化され、サンプル集団の適合度に基づいてCMA-ESを用いて更新される。
CMANASはCIFAR-10のアーキテクチャ検索を完了し、トップ1テストの精度は0.45 GPU日で97.44%、トップ1テストの精度は83.24%と1つのGPUで0.6 GPU日で達成した。
論文 参考訳(メタデータ) (2021-07-15T11:41:23Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Multi-Objective Neural Architecture Search Based on Diverse Structures
and Adaptive Recommendation [4.595675084986132]
畳み込みニューラルネットワーク(CNN)のためのニューラルネットワーク探索(NAS)の検索空間は巨大である。
本稿では,既存の研究結果と過去の情報を利用して,軽量かつ高精度なアーキテクチャを迅速に発見するMoARRアルゴリズムを提案する。
実験結果から,CIFAR-10上でのMoARRは6GPU時間で1.9%の誤差率と2.3Mパラメータを持つ,強力で軽量なモデルを実現することができた。
論文 参考訳(メタデータ) (2020-07-06T13:42:33Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - ADWPNAS: Architecture-Driven Weight Prediction for Neural Architecture
Search [6.458169480971417]
ニューラルアーキテクチャ探索(NAS)のためのアーキテクチャ駆動重み予測(ADWP)手法を提案する。
提案手法では,まずアーキテクチャ集約型検索空間を設計し,次にアーキテクチャパラメータをエンコードすることでハイパーネットワークワークを訓練する。
結果は、CIFAR-10上で1つの探索手順を4.0GPU時間で完了することを示す。
論文 参考訳(メタデータ) (2020-03-03T05:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。