論文の概要: G-EvoNAS: Evolutionary Neural Architecture Search Based on Network
Growth
- arxiv url: http://arxiv.org/abs/2403.02667v1
- Date: Tue, 5 Mar 2024 05:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 16:11:12.829420
- Title: G-EvoNAS: Evolutionary Neural Architecture Search Based on Network
Growth
- Title(参考訳): g-evonas:ネットワーク成長に基づく進化的ニューラルアーキテクチャ探索
- Authors: Juan Zou, Weiwei Jiang, Yizhang Xia, Yuan Liu, Zhanglu Hou
- Abstract要約: 本稿では,ネットワーク成長(G-EvoNAS)に基づく計算効率の良いニューラルネットワーク進化探索フレームワークを提案する。
G-EvoNASはCIFAR10、CIFAR100、ImageNetの3つの一般的な画像分類データセットでテストされている。
実験の結果、G-EvoNASは0.2GPU日で最先端の設計に匹敵するニューラルネットワークアーキテクチャを見出すことができた。
- 参考スコア(独自算出の注目度): 6.712149832731174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolutionary paradigm has been successfully applied to neural network
search(NAS) in recent years. Due to the vast search complexity of the global
space, current research mainly seeks to repeatedly stack partial architectures
to build the entire model or to seek the entire model based on manually
designed benchmark modules. The above two methods are attempts to reduce the
search difficulty by narrowing the search space. To efficiently search network
architecture in the global space, this paper proposes another solution, namely
a computationally efficient neural architecture evolutionary search framework
based on network growth (G-EvoNAS). The complete network is obtained by
gradually deepening different Blocks. The process begins from a shallow
network, grows and evolves, and gradually deepens into a complete network,
reducing the search complexity in the global space. Then, to improve the
ranking accuracy of the network, we reduce the weight coupling of each network
in the SuperNet by pruning the SuperNet according to elite groups at different
growth stages. The G-EvoNAS is tested on three commonly used image
classification datasets, CIFAR10, CIFAR100, and ImageNet, and compared with
various state-of-the-art algorithms, including hand-designed networks and NAS
networks. Experimental results demonstrate that G-EvoNAS can find a neural
network architecture comparable to state-of-the-art designs in 0.2 GPU days.
- Abstract(参考訳): 進化的パラダイムは近年ニューラルネットワーク探索(nas)にうまく適用されている。
グローバルスペースの膨大な検索複雑さのため、現在の研究は主に、モデル全体を構築するために、または手動で設計されたベンチマークモジュールに基づいてモデル全体を求めるために、部分的なアーキテクチャを積み重ねることを模索している。
上記の2つの方法は,探索空間を狭めることで探索難度を下げる試みである。
本稿では,グローバル空間におけるネットワークアーキテクチャを効率的に探索するために,ネットワーク成長(G-EvoNAS)に基づく計算効率の高いニューラルネットワーク進化探索フレームワークを提案する。
完全なネットワークは、徐々に異なるブロックを深くすることで得られる。
プロセスは浅いネットワークから始まり、成長し進化し、徐々に完全なネットワークへと深まり、グローバル空間における検索の複雑さを減らします。
そして、ネットワークのランク付け精度を向上させるために、異なる成長段階のエリートグループに従ってスーパーネットを刈り取ることにより、スーパーネット内の各ネットワークの重み結合を低減する。
G-EvoNASはCIFAR10、CIFAR100、ImageNetの3つの画像分類データセットでテストされており、手書きのネットワークやNASネットワークを含む最先端のアルゴリズムと比較されている。
実験の結果、G-EvoNASは0.2GPU日で最先端の設計に匹敵するニューラルネットワークアーキテクチャを見出すことができた。
関連論文リスト
- Designing deep neural networks for driver intention recognition [40.87622566719826]
本稿では,ニューラルネットワークアーキテクチャが現実世界の安全クリティカルなアプリケーションに与える影響について検討する。
2つの運転意図認識データセットに対して8つの探索戦略のセットを評価する。
論文 参考訳(メタデータ) (2024-02-07T12:54:15Z) - TS-ENAS:Two-Stage Evolution for Cell-based Network Architecture Search [3.267963071384687]
セルベースネットワークアーキテクチャサーチ(TS-ENAS)のための2段階進化法を提案する。
提案アルゴリズムでは,新たなセルベース検索空間と2段階符号化方式を設計し,セルとニューラルネットワーク構造を表現する。
実験により、TS-ENASは、比較性能でニューラルネットワークアーキテクチャをより効果的に見つけることができることが示された。
論文 参考訳(メタデータ) (2023-10-14T08:02:01Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - Evolutionary Neural Cascade Search across Supernetworks [68.8204255655161]
ENCAS - Evolutionary Neural Cascade Searchを紹介する。
ENCASは、複数の事前訓練されたスーパーネットを探索するために使用することができる。
我々は、一般的なコンピュータビジョンベンチマークでEMCASをテストする。
論文 参考訳(メタデータ) (2022-03-08T11:06:01Z) - Neural Architecture Search for Image Super-Resolution Using Densely
Constructed Search Space: DeCoNAS [18.191710317555952]
ニューラルアーキテクチャサーチ(NAS)手法を用いて,DeCoNASNetという,軽量で高密度なネットワークを探索する。
画像の超解像を解くための複雑性に基づくペナルティを定義し、多目的問題とみなすことができる。
実験により、当社のDeCoNASNetは、ハンドクラフト法と既存のNASベースの設計で設計された最先端の軽量スーパーリゾリューションネットワークを上回っています。
論文 参考訳(メタデータ) (2021-04-19T04:51:16Z) - Enhanced Gradient for Differentiable Architecture Search [17.431144144044968]
ネットワーク性能の同時改善とネットワークの複雑性低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案するフレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
実験の結果,本手法は画像分類において,すべての手作りネットワークよりも優れていた。
論文 参考訳(メタデータ) (2021-03-23T13:27:24Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。