論文の概要: A Multi-objective Evolutionary Algorithm Based on Bi-population with Uniform Sampling for Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2602.08513v1
- Date: Mon, 09 Feb 2026 11:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.183777
- Title: A Multi-objective Evolutionary Algorithm Based on Bi-population with Uniform Sampling for Neural Architecture Search
- Title(参考訳): ニューラルアーキテクチャ探索のための一様サンプリングを用いた二個体群に基づく多目的進化的アルゴリズム
- Authors: Yu Xue, Pengcheng Jiang, Chenchen Zhu, Yong Zhang, Ran Cheng, Kaizhou Gao, Dunwei Gong,
- Abstract要約: ニューラルアーキテクチャ探索のための一様サンプリングによる二集団化に基づく進化的アルゴリズムMOEA-BUSを提案する。
CIFAR-10とImageNetの実験はMOEA-BUSの優位性を示し、それぞれ98.39%と80.03%のトップ1の精度を達成した。
- 参考スコア(独自算出の注目度): 32.242039313113246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) automates neural network design, improving efficiency over manual approaches. However, efficiently discovering high-performance neural network architectures that simultaneously optimize multiple objectives remains a significant challenge in NAS. Existing methods often suffer from limited population diversity and inadequate exploration of the search space, particularly in regions with extreme complexity values. To address these challenges, we propose MOEA-BUS, an innovative multi-objective evolutionary algorithm based on bi-population with uniform sampling for neural architecture search, aimed at simultaneously optimizing both accuracy and network complexity. In MOEA-BUS, a novel uniform sampling method is proposed to initialize the population, ensuring that architectures are distributed uniformly across the objective space. Furthermore, to enhance exploration, we deploy a bi-population framework where two populations evolve synergistically, facilitating comprehensive search space coverage. Experiments on CIFAR-10 and ImageNet demonstrate MOEA-BUS's superiority, achieving top-1 accuracies of 98.39% on CIFAR-10, and 80.03% on ImageNet. Notably, it achieves 78.28% accuracy on ImageNet with only 446M MAdds. Ablation studies confirm that both uniform sampling and bi-population mechanisms enhance population diversity and performance. Additionally, in terms of the Kendall's tau coefficient, the SVM achieves an improvement of at least 0.035 compared to the other three commonly used machine learning models, and uniform sampling provided an enhancement of approximately 0.07.
- Abstract(参考訳): ニューラルネットワーク検索(NAS)は、ニューラルネットワーク設計を自動化し、手動によるアプローチよりも効率を向上する。
しかし、複数の目的を同時に最適化する高性能ニューラルネットワークアーキテクチャを効率的に発見することは、NASにとって重要な課題である。
既存の手法では、人口の多様性が制限され、特に極端な複雑さの値を持つ地域では探索空間の探索が不十分であることが多い。
これらの課題に対処するため,我々は,ニューラルネットワーク探索のための一様サンプリングによる二集団化に基づく,新しい多目的進化アルゴリズムMOEA-BUSを提案し,精度とネットワークの複雑さを同時に最適化することを目的とした。
MOEA-BUSでは,新規な一様サンプリング法が提案され,対象空間に一様に配置されていることが保証された。
さらに,2つの個体群が相乗的に進化し,包括的検索空間の網羅的利用が促進される複集団フレームワークを展開。
CIFAR-10とImageNetの実験では、MOEA-BUSの優位性を示し、CIFAR-10では98.39%、ImageNetでは80.03%というトップ1の精度を達成した。
ImageNetの精度は78.28%で、マッド数は446万である。
アブレーション研究は、一様サンプリングと二集団化機構の両方が集団の多様性と性能を高めることを確認している。
さらに、ケンドールのタウ係数に関して、SVMは、他の3つの一般的な機械学習モデルと比較して少なくとも0.035の改善を実現し、一様サンプリングにより約0.07の強化が得られた。
関連論文リスト
- A Continuous Encoding-Based Representation for Efficient Multi-Fidelity Multi-Objective Neural Architecture Search [35.374871338668875]
適応型Co-Kriging-assisted multi-fidelity multi-objective NASアルゴリズムを提案し,NASの計算コストをさらに削減した。
提案手法を用いて風速回帰モデルを作成し,都市モデルに適用した。
論文 参考訳(メタデータ) (2025-09-02T04:31:02Z) - POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [56.09418231453024]
ニューラルアーキテクチャサーチ(NAS)により、研究者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく相互比較比較支援型多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Multi-Objective Neural Architecture Search by Learning Search Space Partitions [8.4553113915588]
ニューラルアーキテクチャ探索(NAS)タスクにLaMOOと呼ばれる新しいメタアルゴリズムを実装した。
LaMOOは、観測されたサンプルからモデルを学び、検索空間を分割し、将来性のある領域に集中することによって、検索プロセスを高速化する。
現実世界のタスクでは、LaMOOの精度は97.36%、CIFAR10の#Paramsはわずか600のサンプルで1.62万である。
論文 参考訳(メタデータ) (2024-06-01T03:51:34Z) - MGAS: Multi-Granularity Architecture Search for Trade-Off Between Model
Effectiveness and Efficiency [10.641875933652647]
我々は,多粒度アーキテクチャサーチ(MGAS)を導入し,効率的かつ効率的なニューラルネットワークを探索する。
各粒度レベル固有の離散化関数を学習し、進化したアーキテクチャに従って単位残率を適応的に決定する。
CIFAR-10、CIFAR-100、ImageNetの大規模な実験により、MGASはモデル性能とモデルサイズとのトレードオフを改善するために、他の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-23T16:32:18Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Evolving Search Space for Neural Architecture Search [70.71153433676024]
最適化された検索空間サブセットを維持することにより,前回の取り組みから得られた結果を増幅するニューラルサーチ空間進化(NSE)方式を提案する。
我々は333万のFLOPでImageNet上で77.3%のトップ1リトレーニング精度を実現し、最先端の性能を得た。
遅延制約が適用された場合、我々の結果は、77.9%のTop-1再トレーニング精度を持つ、以前の最高のパフォーマンスのモバイルモデルよりも優れた性能が得られる。
論文 参考訳(メタデータ) (2020-11-22T01:11:19Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - A Neural Architecture Search based Framework for Liquid State Machine
Design [7.729541832738546]
Liquid State Machine (LSM) はスパイキングニューラルネットワーク (SNN) のリカレントバージョンである。
最近の研究は、LSMモデルの精度を低複雑性で向上させる大きな可能性を示している。
脳構造の多様性と特異性を考えると、LSMモデルの設計は可能な限り最大の探索空間で検討されるべきである。
論文 参考訳(メタデータ) (2020-04-07T10:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。