論文の概要: Reusing Trained Layers of Convolutional Neural Networks to Shorten
Hyperparameters Tuning Time
- arxiv url: http://arxiv.org/abs/2006.09083v2
- Date: Thu, 30 Jul 2020 15:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:02:20.382713
- Title: Reusing Trained Layers of Convolutional Neural Networks to Shorten
Hyperparameters Tuning Time
- Title(参考訳): 畳み込みニューラルネットワークのトレーニング層を再利用してハイパーパラメータチューニング時間を短縮する
- Authors: Roberto L. Castro, Diego Andrade, Basilio Fraguela
- Abstract要約: 本稿では,この過程を短縮するために,異なるトレーニングで隠蔽層(畳み込み層)の重みを再利用する提案について述べる。
実験では、再使用時のトレーニング時間と、畳み込みレイヤの再使用時のバリデーション損失を比較した。
彼らはこの戦略がトレーニング時間を短縮し、その結果のニューラルネットワークの精度も向上することを確認した。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperparameters tuning is a time-consuming approach, particularly when the
architecture of the neural network is decided as part of this process. For
instance, in convolutional neural networks (CNNs), the selection of the number
and the characteristics of the hidden (convolutional) layers may be decided.
This implies that the search process involves the training of all these
candidate network architectures.
This paper describes a proposal to reuse the weights of hidden
(convolutional) layers among different trainings to shorten this process. The
rationale is that if a set of convolutional layers have been trained to solve a
given problem, the weights calculated in this training may be useful when a new
convolutional layer is added to the network architecture.
This idea has been tested using the CIFAR-10 dataset, testing different CNNs
architectures with up to 3 convolutional layers and up to 3 fully connected
layers. The experiments compare the training time and the validation loss when
reusing and not reusing convolutional layers. They confirm that this strategy
reduces the training time while it even increases the accuracy of the resulting
neural network. This finding opens up the future possibility of integrating
this strategy in existing AutoML methods with the purpose of reducing the total
search time.
- Abstract(参考訳): ハイパーパラメータチューニングは、特にこのプロセスの一部としてニューラルネットワークのアーキテクチャが決定される場合、時間を要するアプローチである。
例えば、畳み込みニューラルネットワーク(cnns)では、隠れ(畳み込み)層の数と特性の選択を決定することができる。
これは、検索プロセスがこれら全ての候補ネットワークアーキテクチャのトレーニングを含むことを意味する。
本稿では,隠れた(畳み込み)層の重みを異なるトレーニング間で再利用し,このプロセスを短縮する提案について述べる。
理論的には、与えられた問題を解決するために一連の畳み込み層が訓練された場合、このトレーニングで計算された重み付けは、ネットワークアーキテクチャに新しい畳み込み層を追加する際に有用である。
このアイデアはcifar-10データセットを使ってテストされ、最大3つの畳み込み層と最大3つの完全接続層を持つさまざまなcnnsアーキテクチャをテストする。
実験は、畳み込み層を再利用しない場合のトレーニング時間と検証損失を比較した。
彼らはこの戦略がトレーニング時間を短縮し、その結果のニューラルネットワークの精度も向上することを確認した。
この発見により、この戦略を既存のAutoMLメソッドに統合し、検索時間を短縮することが可能になる。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Auto-tuning of Deep Neural Networks by Conflicting Layer Removal [0.0]
トレーニングモデルのテスト精度を低下させる層を識別する新しい手法を提案する。
矛盾する層は、トレーニングの開始時に早期に検出される。
訓練された残存ネットワークのレイヤの約60%が、アーキテクチャから完全に取り除かれることを示しています。
論文 参考訳(メタデータ) (2021-03-07T11:51:55Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - An End-To-End-Trainable Iterative Network Architecture for Accelerated
Radial Multi-Coil 2D Cine MR Image Reconstruction [4.233498905999929]
我々は,複数のレシーバコイルを用いた加速2次元放射状シネMRIの画像再構成のためのCNNアーキテクチャを提案する。
提案手法を学習的・非学習的正規化手法と比較し,提案手法を他のよく知られた再構築手法と比較する。
論文 参考訳(メタデータ) (2021-02-01T11:42:04Z) - Weight Update Skipping: Reducing Training Time for Artificial Neural
Networks [0.30458514384586394]
本稿では,時間的変動を示す精度向上の観察を生かしたANNのための新しいトレーニング手法を提案する。
このような時間窓の間、ネットワークがまだトレーニングされていることを保証し、過度な適合を避けるバイアスを更新し続けます。
このようなトレーニングアプローチは、計算コストを大幅に削減して、ほぼ同じ精度を達成し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2020-12-05T15:12:10Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Backprojection for Training Feedforward Neural Networks in the Input and
Feature Spaces [12.323996999894002]
本稿では,バックプロパゲーションよりもかなり高速なフィードフォワードニューラルネットワークのトレーニングアルゴリズムを提案する。
提案アルゴリズムは、それぞれバックプロジェクションとカーネルバックプロジェクションと呼ばれる入力空間と特徴空間の両方に利用できる。
論文 参考訳(メタデータ) (2020-04-05T20:53:11Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。