論文の概要: Conflicting Bundles: Adapting Architectures Towards the Improved
Training of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2011.02956v1
- Date: Thu, 5 Nov 2020 16:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:40:42.860883
- Title: Conflicting Bundles: Adapting Architectures Towards the Improved
Training of Deep Neural Networks
- Title(参考訳): conflicting bundles: ディープニューラルネットワークのトレーニング改善に向けたアーキテクチャの適用
- Authors: David Peer, Sebastian Stabinger, Antonio Rodriguez-Sanchez
- Abstract要約: トレーニングされたモデルのテスト精度を低下させるレイヤを特定するために,新しい理論と計量を導入する。
矛盾するトレーニングバンドルを生成するため、パフォーマンスを悪化させるこれらのレイヤを特定します。
これらの結果に基づき、性能低下層を自動的に除去する新しいアルゴリズムが導入された。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing neural network architectures is a challenging task and knowing
which specific layers of a model must be adapted to improve the performance is
almost a mystery. In this paper, we introduce a novel theory and metric to
identify layers that decrease the test accuracy of the trained models, this
identification is done as early as at the beginning of training. In the
worst-case, such a layer could lead to a network that can not be trained at
all. More precisely, we identified those layers that worsen the performance
because they produce conflicting training bundles as we show in our novel
theoretical analysis, complemented by our extensive empirical studies. Based on
these findings, a novel algorithm is introduced to remove performance
decreasing layers automatically. Architectures found by this algorithm achieve
a competitive accuracy when compared against the state-of-the-art
architectures. While keeping such high accuracy, our approach drastically
reduces memory consumption and inference time for different computer vision
tasks.
- Abstract(参考訳): ニューラルネットワークアーキテクチャの設計は難しい課題であり、パフォーマンスを改善するために、モデルの特定のレイヤを適応させる必要があるかを知ることは、ほぼミステリーである。
本稿では,訓練モデルの試験精度を低下させるレイヤを同定するための新しい理論と計量を導入し,この同定を訓練開始時点で早めに行う。
最悪の場合、そのような層はトレーニングがまったくできないネットワークに繋がる可能性がある。
より正確には、これらの層がパフォーマンスを悪化させる原因は、我々の新しい理論分析で示されているように、矛盾するトレーニングバンドルを生成するためである。
これらの結果に基づき,性能低下層を自動的に除去する新しいアルゴリズムが導入された。
このアルゴリズムによって発見されたアーキテクチャは、最先端のアーキテクチャと比較すると、競合する精度を達成する。
このような精度を維持しながら、異なるコンピュータビジョンタスクのメモリ消費と推論時間を劇的に削減する。
関連論文リスト
- Effective Layer Pruning Through Similarity Metric Perspective [0.0]
ディープニューラルネットワークは、認知タスクを解決する機械学習において、主要なパラダイムとなっている。
これらのモデルから構造を抽出することは、ネットワークの複雑さを減らすための簡単なアプローチである。
層プルーニングは、しばしば高い圧縮速度でネットワーク予測能力(すなわち精度)を損なう。
この研究は、プルーニング手法によって追求されるすべての基礎特性を満たす効果的なレイヤ・プルーニング戦略を導入する。
論文 参考訳(メタデータ) (2024-05-27T11:54:51Z) - RANK-NOSH: Efficient Predictor-Based Architecture Search via Non-Uniform
Successive Halving [74.61723678821049]
予算の浪費を回避するため,早期に性能の低いアーキテクチャのトレーニングを終了する階層的スケジューリングアルゴリズムであるNOn-uniform Successive Halving (NOSH)を提案する。
予測器に基づくアーキテクチャ探索をペア比較でランク付けする学習として定式化する。
その結果、RANK-NOSHは検索予算を5倍に削減し、様々な空間やデータセットにおける従来の最先端予測手法よりも、競争力やパフォーマンスの向上を実現した。
論文 参考訳(メタデータ) (2021-08-18T07:45:21Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - The Untapped Potential of Off-the-Shelf Convolutional Neural Networks [29.205446247063673]
ResNet-50のような既存の市販モデルは、ImageNet上で95%以上の精度を持つことを示す。
このレベルのパフォーマンスは現在、20倍以上のパラメータとはるかに複雑なトレーニング手順を持つモデルを上回る。
論文 参考訳(メタデータ) (2021-03-17T20:04:46Z) - Auto-tuning of Deep Neural Networks by Conflicting Layer Removal [0.0]
トレーニングモデルのテスト精度を低下させる層を識別する新しい手法を提案する。
矛盾する層は、トレーニングの開始時に早期に検出される。
訓練された残存ネットワークのレイヤの約60%が、アーキテクチャから完全に取り除かれることを示しています。
論文 参考訳(メタデータ) (2021-03-07T11:51:55Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Reusing Trained Layers of Convolutional Neural Networks to Shorten
Hyperparameters Tuning Time [1.160208922584163]
本稿では,この過程を短縮するために,異なるトレーニングで隠蔽層(畳み込み層)の重みを再利用する提案について述べる。
実験では、再使用時のトレーニング時間と、畳み込みレイヤの再使用時のバリデーション損失を比較した。
彼らはこの戦略がトレーニング時間を短縮し、その結果のニューラルネットワークの精度も向上することを確認した。
論文 参考訳(メタデータ) (2020-06-16T11:39:39Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。