論文の概要: A Multi-objective Evolutionary Algorithm Based on Bi-population with Uniform Sampling for Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2602.08513v1
- Date: Mon, 09 Feb 2026 11:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.183777
- Title: A Multi-objective Evolutionary Algorithm Based on Bi-population with Uniform Sampling for Neural Architecture Search
- Title(参考訳): ニューラルアーキテクチャ探索のための一様サンプリングを用いた二個体群に基づく多目的進化的アルゴリズム
- Authors: Yu Xue, Pengcheng Jiang, Chenchen Zhu, Yong Zhang, Ran Cheng, Kaizhou Gao, Dunwei Gong,
- Abstract要約: ニューラルアーキテクチャ探索のための一様サンプリングによる二集団化に基づく進化的アルゴリズムMOEA-BUSを提案する。
CIFAR-10とImageNetの実験はMOEA-BUSの優位性を示し、それぞれ98.39%と80.03%のトップ1の精度を達成した。
- 参考スコア(独自算出の注目度): 32.242039313113246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) automates neural network design, improving efficiency over manual approaches. However, efficiently discovering high-performance neural network architectures that simultaneously optimize multiple objectives remains a significant challenge in NAS. Existing methods often suffer from limited population diversity and inadequate exploration of the search space, particularly in regions with extreme complexity values. To address these challenges, we propose MOEA-BUS, an innovative multi-objective evolutionary algorithm based on bi-population with uniform sampling for neural architecture search, aimed at simultaneously optimizing both accuracy and network complexity. In MOEA-BUS, a novel uniform sampling method is proposed to initialize the population, ensuring that architectures are distributed uniformly across the objective space. Furthermore, to enhance exploration, we deploy a bi-population framework where two populations evolve synergistically, facilitating comprehensive search space coverage. Experiments on CIFAR-10 and ImageNet demonstrate MOEA-BUS's superiority, achieving top-1 accuracies of 98.39% on CIFAR-10, and 80.03% on ImageNet. Notably, it achieves 78.28% accuracy on ImageNet with only 446M MAdds. Ablation studies confirm that both uniform sampling and bi-population mechanisms enhance population diversity and performance. Additionally, in terms of the Kendall's tau coefficient, the SVM achieves an improvement of at least 0.035 compared to the other three commonly used machine learning models, and uniform sampling provided an enhancement of approximately 0.07.
- Abstract(参考訳): ニューラルネットワーク検索(NAS)は、ニューラルネットワーク設計を自動化し、手動によるアプローチよりも効率を向上する。
しかし、複数の目的を同時に最適化する高性能ニューラルネットワークアーキテクチャを効率的に発見することは、NASにとって重要な課題である。
既存の手法では、人口の多様性が制限され、特に極端な複雑さの値を持つ地域では探索空間の探索が不十分であることが多い。
これらの課題に対処するため,我々は,ニューラルネットワーク探索のための一様サンプリングによる二集団化に基づく,新しい多目的進化アルゴリズムMOEA-BUSを提案し,精度とネットワークの複雑さを同時に最適化することを目的とした。
MOEA-BUSでは,新規な一様サンプリング法が提案され,対象空間に一様に配置されていることが保証された。
さらに,2つの個体群が相乗的に進化し,包括的検索空間の網羅的利用が促進される複集団フレームワークを展開。
CIFAR-10とImageNetの実験では、MOEA-BUSの優位性を示し、CIFAR-10では98.39%、ImageNetでは80.03%というトップ1の精度を達成した。
ImageNetの精度は78.28%で、マッド数は446万である。
アブレーション研究は、一様サンプリングと二集団化機構の両方が集団の多様性と性能を高めることを確認している。
さらに、ケンドールのタウ係数に関して、SVMは、他の3つの一般的な機械学習モデルと比較して少なくとも0.035の改善を実現し、一様サンプリングにより約0.07の強化が得られた。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [56.09418231453024]
ニューラルアーキテクチャサーチ(NAS)により、研究者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく相互比較比較支援型多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - MGAS: Multi-Granularity Architecture Search for Trade-Off Between Model
Effectiveness and Efficiency [10.641875933652647]
我々は,多粒度アーキテクチャサーチ(MGAS)を導入し,効率的かつ効率的なニューラルネットワークを探索する。
各粒度レベル固有の離散化関数を学習し、進化したアーキテクチャに従って単位残率を適応的に決定する。
CIFAR-10、CIFAR-100、ImageNetの大規模な実験により、MGASはモデル性能とモデルサイズとのトレードオフを改善するために、他の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-23T16:32:18Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - A Neural Architecture Search based Framework for Liquid State Machine
Design [7.729541832738546]
Liquid State Machine (LSM) はスパイキングニューラルネットワーク (SNN) のリカレントバージョンである。
最近の研究は、LSMモデルの精度を低複雑性で向上させる大きな可能性を示している。
脳構造の多様性と特異性を考えると、LSMモデルの設計は可能な限り最大の探索空間で検討されるべきである。
論文 参考訳(メタデータ) (2020-04-07T10:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。