論文の概要: HMCNAS: Neural Architecture Search using Hidden Markov Chains and
Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2007.16149v1
- Date: Fri, 31 Jul 2020 16:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:38:13.014838
- Title: HMCNAS: Neural Architecture Search using Hidden Markov Chains and
Bayesian Optimization
- Title(参考訳): HMCNAS:隠れマルコフ連鎖とベイズ最適化を用いたニューラルネットワーク探索
- Authors: Vasco Lopes and Lu\'is A. Alexandre
- Abstract要約: HMCNASは、特定のタスクに関する人間的な知識を必要とせずに、競争モデルを作成する方法を提供することによって、NASを一般化するステップを提供する。
- 参考スコア(独自算出の注目度): 2.685668802278155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search has achieved state-of-the-art performance in a
variety of tasks, out-performing human-designed networks. However, many
assumptions, that require human definition, related with the problems being
solved or the models generated are still needed: final model architectures,
number of layers to be sampled, forced operations, small search spaces, which
ultimately contributes to having models with higher performances at the cost of
inducing bias into the system. In this paper, we propose HMCNAS, which is
composed of two novel components: i) a method that leverages information about
human-designed models to autonomously generate a complex search space, and ii)
an Evolutionary Algorithm with Bayesian Optimization that is capable of
generating competitive CNNs from scratch, without relying on human-defined
parameters or small search spaces. The experimental results show that the
proposed approach results in competitive architectures obtained in a very short
time. HMCNAS provides a step towards generalizing NAS, by providing a way to
create competitive models, without requiring any human knowledge about the
specific task.
- Abstract(参考訳): Neural Architecture Searchは、さまざまなタスクにおいて最先端のパフォーマンスを達成した。
しかし、最終的なモデルアーキテクチャ、サンプルするレイヤの数、強制操作、小さな検索空間など、解決される問題や生成されたモデルに関連する人間定義を必要とする多くの仮定は、最終的にシステムへのバイアスを引き起こすコストで、より高いパフォーマンスを持つモデルを持つことに貢献する。
本稿では,2つの新しい構成要素からなるHMCNASを提案する。
一 人間が設計したモデルに関する情報を利用して、複雑な探索空間を自律的に生成する方法
二 人間の定義したパラメータや小さな探索空間に頼ることなく、ゼロから競合するCNNを生成することができるベイズ最適化付き進化的アルゴリズム。
実験の結果,提案手法は競争的アーキテクチャを極めて短時間で得ることができることがわかった。
HMCNASは、特定のタスクに関する人間的な知識を必要とせずに、競争モデルを作成する方法を提供することによって、NASを一般化するステップを提供する。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - NASRec: Weight Sharing Neural Architecture Search for Recommender
Systems [40.54254555949057]
NASRecは,1つのスーパーネットをトレーニングし,重量共有により豊富なモデル/サブアーキテクチャを効率的に生成するパラダイムである。
CTR(Click-Through Rates)の3つの予測ベンチマークの結果,NASRecは手動設計モデルと既存のNAS手法の両方より優れていることが示された。
論文 参考訳(メタデータ) (2022-07-14T20:15:11Z) - SuperNet in Neural Architecture Search: A Taxonomic Survey [14.037182039950505]
このサーベイは、ウェイトシェアリングを使用して、すべてのアーキテクチャをサブモデルとして組み立てるニューラルネットワークを構築するスーパーネット最適化に焦点を当てている。
データ側最適化、低ランク相関緩和、多数のデプロイメントシナリオに対するトランスファー可能なNASなどです。
論文 参考訳(メタデータ) (2022-04-08T08:29:52Z) - Towards Less Constrained Macro-Neural Architecture Search [2.685668802278155]
ニューラルアーキテクチャサーチ(NAS)ネットワークは、様々なタスクで最先端のパフォーマンスを達成する。
ほとんどのNAS手法は、探索を制約する人間定義の仮定に大きく依存している。
我々は,LCMNASが最小のGPU計算でゼロから最先端アーキテクチャを生成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-10T17:53:03Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Progressive Automatic Design of Search Space for One-Shot Neural
Architecture Search [15.017964136568061]
単発モデルの精度が高いモデルでは,スタンドアローンの訓練では必ずしも優れた性能が得られない。
PAD-NASという検索空間のプログレッシブ自動設計を提案する。
このようにして、PAD-NASは各レイヤの操作を自動的に設計し、検索空間の品質とモデルの多様性のトレードオフを達成できる。
論文 参考訳(メタデータ) (2020-05-15T14:21:07Z) - Neural Architecture Generator Optimization [9.082931889304723]
我々はまず,NASを最適ネットワーク生成器の探索問題として検討する。
本稿では,非常に多様なネットワークタイプを表現可能な,階層的でグラフベースの検索空間を提案する。
論文 参考訳(メタデータ) (2020-04-03T06:38:07Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。