論文の概要: Learn to Explore: Meta NAS via Bayesian Optimization Guided Graph Generation
- arxiv url: http://arxiv.org/abs/2508.09467v1
- Date: Wed, 13 Aug 2025 03:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.748497
- Title: Learn to Explore: Meta NAS via Bayesian Optimization Guided Graph Generation
- Title(参考訳): Learn to Explore: ベイジアン最適化によるグラフ生成によるメタNAS
- Authors: Zijun Sun, Yanning Shen,
- Abstract要約: 本稿では,新しいMeta-NASフレームワークGraB-NASを提案する。
GraB-NASはまず、ニューラルネットワークをグラフとしてモデル化し、次に新しいグラフを見つけて生成するためのハイブリッド検索戦略を開発する。
実験により、GraB-NASは最先端のMeta-NASベースラインを上回る性能を示し、より優れた一般化と探索効率を実現している。
- 参考スコア(独自算出の注目度): 15.062765311062915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) automates the design of high-performing neural networks but typically targets a single predefined task, thereby restricting its real-world applicability. To address this, Meta Neural Architecture Search (Meta-NAS) has emerged as a promising paradigm that leverages prior knowledge across tasks to enable rapid adaptation to new ones. Nevertheless, existing Meta-NAS methods often struggle with poor generalization, limited search spaces, or high computational costs. In this paper, we propose a novel Meta-NAS framework, GraB-NAS. Specifically, GraB-NAS first models neural architectures as graphs, and then a hybrid search strategy is developed to find and generate new graphs that lead to promising neural architectures. The search strategy combines global architecture search via Bayesian Optimization in the search space with local exploration for novel neural networks via gradient ascent in the latent space. Such a hybrid search strategy allows GraB-NAS to discover task-aware architectures with strong performance, even beyond the predefined search space. Extensive experiments demonstrate that GraB-NAS outperforms state-of-the-art Meta-NAS baselines, achieving better generalization and search effectiveness.
- Abstract(参考訳): ニューラルネットワークサーチ(NAS)は、高性能ニューラルネットワークの設計を自動化するが、通常は単一の事前定義されたタスクを目標とし、現実の応用性を制限する。
これを解決するため、Meta Neural Architecture Search(Meta-NAS)は、タスク間の事前知識を活用して、新しいタスクへの迅速な適応を可能にする、有望なパラダイムとして登場した。
それでも、既存のMeta-NAS手法は、一般化の貧弱さ、検索スペースの制限、高い計算コストに悩まされることが多い。
本稿では,新しいメタNASフレームワークGraB-NASを提案する。
具体的には、GraB-NASはまず、ニューラルネットワークをグラフとしてモデル化し、次に、有望なニューラルアーキテクチャにつながる新しいグラフを見つけて生成するためのハイブリッド検索戦略を開発する。
探索戦略は、ベイズ最適化によるグローバルアーキテクチャ探索と、潜伏空間における勾配上昇による新しいニューラルネットワークの局所探索を組み合わせたものである。
このようなハイブリッド検索戦略により、GraB-NASは、事前に定義された検索空間を超えて、強力なパフォーマンスを持つタスク対応アーキテクチャを発見できる。
大規模な実験により、GraB-NASは最先端のMeta-NASベースラインを上回る性能を示し、より優れた一般化と探索効率を実現している。
関連論文リスト
- PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search [34.06028035262884]
我々は、新しい進化型NAS戦略、Predictor-assisted E-NAS(PRE-NAS)を提案する。
Pre-NASは新しい進化的探索戦略を活用し、世代ごとに高忠実度重みの継承を統合する。
NAS-Bench-201とDARTSの探索実験により、Pre-NASは最先端のNAS法より優れていることが示された。
論文 参考訳(メタデータ) (2022-04-27T06:40:39Z) - When NAS Meets Trees: An Efficient Algorithm for Neural Architecture
Search [117.89827740405694]
ニューラルアーキテクチャサーチ(NAS)の主な課題は、巨大なサーチ空間において賢明に探索する方法を設計することである。
少数のアーキテクチャを探索することで探索効率を向上するNAS(TNAS with Tree)手法を提案する。
TNASは、NAS-Bench-201の4時間でテスト精度94.37%のCIFAR-10のグローバルな最適アーキテクチャを発見した。
論文 参考訳(メタデータ) (2022-04-11T07:34:21Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - Generative Adversarial Neural Architecture Search [21.05611902967155]
理論的に証明可能な収束保証を備えたGA-NAS(Generative Adversarial NAS)を提案する。
GA-NASは、他のNAS手法によって既に最適化されているベースラインを改善するために利用できることを示す。
論文 参考訳(メタデータ) (2021-05-19T18:54:44Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - Simplifying Architecture Search for Graph Neural Network [38.45540097927176]
本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-08-26T16:24:03Z) - BATS: Binary ArchitecTure Search [56.87581500474093]
ニューラルアーキテクチャ検索をバイナリドメインに直接適用すると、非常に貧弱な結果が得られることを示す。
具体的には、新しいバイナリ指向検索空間を導入し、設計する。
また、CIFAR10、CIFAR100、ImageNetデータセット上に、バイナリニューラルネットワークのための新しい最先端技術も設定しました。
論文 参考訳(メタデータ) (2020-03-03T18:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。