論文の概要: Mutation is all you need
- arxiv url: http://arxiv.org/abs/2107.07343v1
- Date: Sun, 4 Jul 2021 15:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:22:47.118169
- Title: Mutation is all you need
- Title(参考訳): 突然変異は必要なだけ
- Authors: Lennart Schneider, Florian Pfisterer, Martin Binder and Bernd Bischl
- Abstract要約: BANANASはベイズ最適化フレームワークに組み込まれた最先端のNAS手法である。
最近の発見はNAS-Bench-101ベンチマークでBANANASの強い性能を示している。
本研究ではNAS-Bench-301ベンチマークにおけるBANANASの性能が取得関数によって決定されることを示す実験結果を示す。
- 参考スコア(独自算出の注目度): 1.1709030738577393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) promises to make deep learning accessible to
non-experts by automating architecture engineering of deep neural networks.
BANANAS is one state-of-the-art NAS method that is embedded within the Bayesian
optimization framework. Recent experimental findings have demonstrated the
strong performance of BANANAS on the NAS-Bench-101 benchmark being determined
by its path encoding and not its choice of surrogate model. We present
experimental results suggesting that the performance of BANANAS on the
NAS-Bench-301 benchmark is determined by its acquisition function optimizer,
which minimally mutates the incumbent.
- Abstract(参考訳): neural architecture search(nas)は、ディープニューラルネットワークのアーキテクチャエンジニアリングを自動化することによって、非専門家がディープラーニングにアクセスできるようにする。
BANANASはベイズ最適化フレームワークに組み込まれた最先端NAS手法である。
最近の実験では、NAS-Bench-101ベンチマークにおけるBANANASの強い性能は、そのパスエンコーディングによって決定され、サロゲートモデルの選択ではないことが示されている。
本研究では,NAS-Bench-301ベンチマークにおけるBANANASの性能が,その取得関数オプティマイザによって決定されることを示す。
関連論文リスト
- DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Are Neural Architecture Search Benchmarks Well Designed? A Deeper Look
Into Operation Importance [5.065947993017157]
我々は、広く使われているNAS-Bench-101、NAS-Bench-201、TransNAS-Bench-101ベンチマークを実証分析した。
性能範囲の上限に近いアーキテクチャを生成するためには,操作プールのサブセットのみが必要であることがわかった。
一貫性のある畳み込みレイヤは、アーキテクチャのパフォーマンスに最も影響していると考えています。
論文 参考訳(メタデータ) (2023-03-29T18:03:28Z) - PredNAS: A Universal and Sample Efficient Neural Architecture Search
Framework [20.59478264338981]
ニューラル・アーキテクチャ・サーチ(NAS)のための汎用的で効果的なフレームワークであるPredNASを提案する。
我々はニューラル予測器を性能予測器として採用する。驚いたことに、PredNASはNASベンチマークの最先端のパフォーマンスを、少数のトレーニングサンプルで達成できる。
論文 参考訳(メタデータ) (2022-10-26T04:15:58Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - BNAS:An Efficient Neural Architecture Search Approach Using Broad
Scalable Architecture [62.587982139871976]
我々はBCNN(Broad Convolutional Neural Network)と呼ばれる広義のスケーラブルなアーキテクチャを精巧に設計するBNAS(Broad Neural Architecture Search)を提案する。
BNASは0.19日であり、ENASよりも2.37倍安い。
論文 参考訳(メタデータ) (2020-01-18T15:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。