論文の概要: Ecological Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2503.10908v1
- Date: Thu, 13 Mar 2025 21:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:09:18.304250
- Title: Ecological Neural Architecture Search
- Title(参考訳): 生態的ニューラルアーキテクチャーサーチ
- Authors: Benjamin David Winter, William J. Teahan,
- Abstract要約: 本稿ではNevo Ecological Neural Architecture Search (ENAS)を紹介する。
ENASは、進化的パラメータを候補のソリューションの表現型に直接組み込んでおり、アーキテクチャ仕様と並行して動的に進化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: When employing an evolutionary algorithm to optimize a neural networks architecture, developers face the added challenge of tuning the evolutionary algorithm's own hyperparameters - population size, mutation rate, cloning rate, and number of generations. This paper introduces Neuvo Ecological Neural Architecture Search (ENAS), a novel method that incorporates these evolutionary parameters directly into the candidate solutions' phenotypes, allowing them to evolve dynamically alongside architecture specifications. Experimental results across four binary classification datasets demonstrate that ENAS not only eliminates manual tuning of evolutionary parameters but also outperforms competitor NAS methodologies in convergence speed (reducing computational time by 18.3%) and accuracy (improving classification performance in 3 out of 4 datasets). By enabling "greedy individuals" to optimize resource allocation based on fitness, ENAS provides an efficient, self-regulating approach to neural architecture search.
- Abstract(参考訳): ニューラルネットワークアーキテクチャを最適化するために進化的アルゴリズムを使用する場合、開発者は、進化的アルゴリズムの自身のハイパーパラメータ(集団サイズ、突然変異率、クローンレート、世代数)をチューニングする、という追加の課題に直面します。
本稿では,ニューボ・エコロジー・ニューラル・アーキテクチャ・サーチ(ENAS)について紹介する。これは,これらの進化パラメータを候補解の表現型に直接組み込む新しい手法で,アーキテクチャ仕様とともに動的に進化することができる。
4つのバイナリ分類データセットに対する実験結果から、ENASは進化パラメータのマニュアルチューニングを除去するだけでなく、収束速度(計算時間を18.3%削減)と精度(4つのデータセットのうち3つで分類性能を向上させる)で競合するNAS方法論より優れていることが示されている。
適合度に基づいたリソース割り当ての最適化を可能にすることにより、ENASは、ニューラルネットワーク検索に対する効率的で自己規制的なアプローチを提供する。
関連論文リスト
- Evolutionary Neural Architecture Search for 3D Point Cloud Analysis [0.6378824981027466]
本稿では, 連続点干渉次元探索(SHSADE-PIDS)を用いた成功史に基づく自己適応微分進化法を提案する。
SHSADE-PIDSは、離散的なディープニューラルネットワークアーキテクチャを連続空間にエンコードし、効率的なポイントクラウドニューラルネットワークアーキテクチャのための連続空間での探索を実行する進化的NASフレームワークである。
挑戦的な3Dセグメンテーションと分類ベンチマークに関する総合的な実験は、SHSADE-PIDSの機能を示している。
論文 参考訳(メタデータ) (2024-08-10T13:41:18Z) - A First Step Towards Runtime Analysis of Evolutionary Neural Architecture Search [24.056523078277053]
本研究は、ENASの数学的ランタイム解析に向けた予備的なステップである。
我々は、二項分類問題を$textscUNIFORM$と定義し、ニューラルネットワークと分類精度の関係を表す明示的な適合関数を定式化する。
理論的な結果は、ローカルとグローバルの突然変異は、$textscUNIFORM$でほぼ同じパフォーマンスを達成していることを示している。
論文 参考訳(メタデータ) (2024-01-22T06:29:22Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Neural Architecture Search based on Cartesian Genetic Programming Coding
Method [6.519170476143571]
文分類課題を解決するために,CGPに基づくNASの進化的アプローチであるCGPNASを提案する。
実験の結果,検索されたアーキテクチャは人間設計アーキテクチャの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2021-03-12T09:51:03Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。