論文の概要: A Novel Framework for Neural Architecture Search in the Hill Climbing
Domain
- arxiv url: http://arxiv.org/abs/2102.12985v1
- Date: Mon, 22 Feb 2021 04:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-27 02:38:41.306048
- Title: A Novel Framework for Neural Architecture Search in the Hill Climbing
Domain
- Title(参考訳): ヒルクライミング領域におけるニューラルアーキテクチャ探索のための新しいフレームワーク
- Authors: Mudit Verma, Pradyumna Sinha, Karan Goyal, Apoorva Verma and Seba
Susan
- Abstract要約: ヒルクライミング手法に基づくニューラルアーキテクチャ探索のための新しいフレームワークを提案する。
単一のGPUトレーニングの19.4時間でCIFAR-10データセットの4.96%のエラー率を達成した。
- 参考スコア(独自算出の注目度): 2.729898906885749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have now long been used for solving complex problems of image
domain, yet designing the same needs manual expertise. Furthermore, techniques
for automatically generating a suitable deep learning architecture for a given
dataset have frequently made use of reinforcement learning and evolutionary
methods which take extensive computational resources and time. We propose a new
framework for neural architecture search based on a hill-climbing procedure
using morphism operators that makes use of a novel gradient update scheme. The
update is based on the aging of neural network layers and results in the
reduction in the overall training time. This technique can search in a broader
search space which subsequently yields competitive results. We achieve a 4.96%
error rate on the CIFAR-10 dataset in 19.4 hours of a single GPU training.
- Abstract(参考訳): ニューラルネットワークは、画像ドメインの複雑な問題を解決するために長年使われてきたが、同じニーズを手作業で設計する。
さらに、与えられたデータセットに適したディープラーニングアーキテクチャを自動生成する技術は、広範囲な計算資源と時間を要する強化学習と進化的手法を頻繁に利用している。
本稿では,新しい勾配更新スキームを用いた準同型演算子を用いたヒルクライミング手順に基づくニューラルアーキテクチャ探索のための新しいフレームワークを提案する。
今回のアップデートは、ニューラルネットワークレイヤの老朽化と、全体的なトレーニング時間の短縮に基づくものだ。
この技術は、その後、競争結果をもたらす広い検索空間で検索することができます。
単一のGPUトレーニングの19.4時間でCIFAR-10データセットの4.96%のエラー率を達成した。
関連論文リスト
- DQNAS: Neural Architecture Search using Reinforcement Learning [6.33280703577189]
畳み込みニューラルネットワークは様々な画像関連アプリケーションで使われている。
本稿では,強化学習の原則を取り入れた,ニューラルネットワークの自動探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T04:01:47Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Self Semi Supervised Neural Architecture Search for Semantic
Segmentation [6.488575826304023]
セグメンテーションの課題に対する自己監督と半教師付き学習に基づくニューラルアーキテクチャ検索戦略を提案する。
このアプローチは、このタスクに最適化されたニューラルネットワークモデルを構築します。
CityscapesとPASCAL VOC 2012データセットの実験では、発見されたニューラルネットワークは最先端の手作りNNモデルよりも効率的であることが示されている。
論文 参考訳(メタデータ) (2022-01-29T19:49:44Z) - Improving the sample-efficiency of neural architecture search with
reinforcement learning [0.0]
この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:30:09Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。