論文の概要: Hyperparameter Optimization in Neural Networks via Structured Sparse
Recovery
- arxiv url: http://arxiv.org/abs/2007.04087v1
- Date: Tue, 7 Jul 2020 00:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:07:47.590463
- Title: Hyperparameter Optimization in Neural Networks via Structured Sparse
Recovery
- Title(参考訳): 構造的スパース回復によるニューラルネットワークのハイパーパラメータ最適化
- Authors: Minsu Cho, Mohammadreza Soltani, and Chinmay Hegde
- Abstract要約: スパースリカバリ法のレンズを用いて,ニューラルネットワークの自動設計における2つの重要な問題について検討する。
本論文の前半では,HPOと構造的スパースリカバリの新たな接続を確立する。
本論文の第2部では,NASと構造的スパース回復の関連性を確立する。
- 参考スコア(独自算出の注目度): 54.60327265077322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study two important problems in the automated design of
neural networks -- Hyper-parameter Optimization (HPO), and Neural Architecture
Search (NAS) -- through the lens of sparse recovery methods. In the first part
of this paper, we establish a novel connection between HPO and structured
sparse recovery. In particular, we show that a special encoding of the
hyperparameter space enables a natural group-sparse recovery formulation, which
when coupled with HyperBand (a multi-armed bandit strategy), leads to
improvement over existing hyperparameter optimization methods. Experimental
results on image datasets such as CIFAR-10 confirm the benefits of our
approach. In the second part of this paper, we establish a connection between
NAS and structured sparse recovery. Building upon ``one-shot'' approaches in
NAS, we propose a novel algorithm that we call CoNAS by merging ideas from
one-shot approaches with a techniques for learning low-degree sparse Boolean
polynomials. We provide theoretical analysis on the number of validation error
measurements. Finally, we validate our approach on several datasets and
discover novel architectures hitherto unreported, achieving competitive (or
better) results in both performance and search time compared to the existing
NAS approaches.
- Abstract(参考訳): 本稿では,超パラメータ最適化(HPO)とニューラルアーキテクチャ探索(NAS)という,ニューラルネットワークの自動設計における2つの重要な問題について,スパースリカバリ法を用いて検討する。
本論文の前半では,HPOと構造的スパースリカバリの新たな接続を確立する。
特に,ハイパーパラメータ空間の特別なエンコーディングは,ハイパーバンド(マルチアーム付きバンディット戦略)と組み合わせると,既存のハイパーパラメータ最適化法よりも改善される自然群スパースリカバリ定式化を可能にすることを示す。
CIFAR-10などの画像データセットの実験結果から,提案手法の利点が確認された。
本論文の第2部では,NASと構造的スパース回復の関連性を確立する。
NASにおける「ワンショット」アプローチに基づいて、一ショットアプローチのアイデアと低次スパースブール多項式の学習技術を組み合わせることで、CoNASと呼ぶ新しいアルゴリズムを提案する。
検証誤差の測定回数に関する理論的解析を行う。
最後に,提案手法をいくつかのデータセットで検証し,新たなアーキテクチャを未報告で発見し,既存のNAS手法と比較して,性能と検索時間の両面での競合性(あるいは向上)を実現する。
関連論文リスト
- DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Bag of Baselines for Multi-objective Joint Neural Architecture Search
and Hyperparameter Optimization [29.80410614305851]
ニューラルネットワークアーキテクチャ検索(NAS)とハイパーパラメータ最適化(HPO)により、ディープラーニングは非専門家にアクセスできます。
本稿では,複数の目的に対して,ニューラルネットワークとハイパーパラメータを共同で最適化する手法を提案する。
これらの方法は、マルチオブジェクトジョイントNAS + HPOの将来の研究のための単純なベースラインとして機能します。
論文 参考訳(メタデータ) (2021-05-03T17:04:56Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Effective, Efficient and Robust Neural Architecture Search [4.273005643715522]
敵攻撃の最近の進歩は、ニューラルアーキテクチャサーチ(NAS)によって探索されたディープニューラルネットワークの脆弱性を示している
本稿では,ニューラルネットワークアーキテクチャの性能,堅牢性,資源制約を考慮し,ニューラルネットワークアーキテクチャを探索する,効率的で効率的かつロバストなニューラルネットワーク探索手法を提案する。
ベンチマークデータセットを用いた実験により,提案手法は,モデルサイズと同等の分類精度で,逆向きに頑健なアーキテクチャを見出すことができることがわかった。
論文 参考訳(メタデータ) (2020-11-19T13:46:23Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Geometry-Aware Gradient Algorithms for Neural Architecture Search [41.943045315986744]
重み付けによるNASを理解するために,単一レベルの経験的リスク最小化の研究を議論する。
本稿では,この最適化の基盤となる構造を利用して,疎度なアーキテクチャパラメータを返却する幾何対応フレームワークを提案する。
コンピュータビジョンにおける最新のNASベンチマークにおいて、最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-04-16T17:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。