論文の概要: Deep Networks with Fast Retraining
- arxiv url: http://arxiv.org/abs/2008.07387v2
- Date: Mon, 4 Jan 2021 23:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:40:35.733110
- Title: Deep Networks with Fast Retraining
- Title(参考訳): 高速再トレーニングを伴うディープネットワーク
- Authors: Wandong Zhang (1 and 2), Yimin Yang (2 and 3), Jonathan Wu (1) ((1)
University of Windsor, (2) Lakehead University, (3) Vector Institute for
Artificial Intelligence)
- Abstract要約: 本稿では,深層畳み込みニューラルネットワーク(DCNN)学習のための新しいMP逆ベース高速リトレーニング戦略を提案する。
各トレーニングでは、後進パスでトレーニングされた畳み込み層の数を制御するランダムな学習戦略が最初に利用される。
そこで,MP 逆ベースバッチ・バイ・バッチ・ラーニング・ストラテジーを開発し,産業規模の計算資源を使わずにネットワークを実装できるようにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work [1] has utilized Moore-Penrose (MP) inverse in deep convolutional
neural network (DCNN) learning, which achieves better generalization
performance over the DCNN with a stochastic gradient descent (SGD) pipeline.
However, Yang's work has not gained much popularity in practice due to its high
sensitivity of hyper-parameters and stringent demands of computational
resources. To enhance its applicability, this paper proposes a novel MP
inverse-based fast retraining strategy. In each training epoch, a random
learning strategy that controls the number of convolutional layers trained in
the backward pass is first utilized. Then, an MP inverse-based batch-by-batch
learning strategy, which enables the network to be implemented without access
to industrial-scale computational resources, is developed to refine the dense
layer parameters. Experimental results empirically demonstrate that fast
retraining is a unified strategy that can be used for all DCNNs. Compared to
other learning strategies, the proposed learning pipeline has robustness
against the hyper-parameters, and the requirement of computational resources is
significantly reduced. [1] Y. Yang, J. Wu, X. Feng, and A. Thangarajah,
"Recomputation of dense layers for the perfor-238mance improvement of dcnn,"
IEEE Trans. Pattern Anal. Mach. Intell., 2019.
- Abstract(参考訳): 最近の研究[1]は、ディープ畳み込みニューラルネットワーク(DCNN)学習におけるムーア・ペンローズ(MP)の逆効果を利用しており、確率勾配降下(SGD)パイプラインによるDCNNの一般化性能を向上させる。
しかし、ヤンの研究はハイパーパラメータの高感度と計算資源の厳密な要求のため、実際にはあまり人気を得られていない。
本稿では,その適用性を高めるために,新しいMP逆ベース高速リトレーニング戦略を提案する。
各トレーニングエポックでは、後進パスでトレーニングされた畳み込み層の数を制御するランダム学習戦略が最初に利用される。
次に,産業規模の計算資源にアクセスせずにネットワークを実装可能なmp逆バッチ・バイ・バッチ学習戦略を開発し,密層パラメータを洗練する。
実験により、高速リトレーニングはDCNNで使用できる統一戦略であることを実証した。
他の学習戦略と比較して,提案した学習パイプラインはハイパーパラメータに対して頑健であり,計算資源の要求は大幅に低減される。
[1] y. yang, j. wu, x. feng, a. thangarajah, and recomputation of dense layers for the perfor-238mance improvement of dcnn”. ieee trans. (英語)
パターンアナル。
マッハ
インテリ。
, 2019.
関連論文リスト
- Gradient-Free Training of Recurrent Neural Networks using Random Perturbations [1.1742364055094265]
リカレントニューラルネットワーク(RNN)は、チューリング完全性とシーケンシャルな処理能力のために、計算の潜在能力を秘めている。
時間によるバックプロパゲーション(BPTT)は、時間とともにRNNをアンロールすることでバックプロパゲーションアルゴリズムを拡張する。
BPTTは、前方と後方のフェーズをインターリーブし、正確な勾配情報を格納する必要があるなど、大きな欠点に悩まされている。
BPTTと競合するRNNにおける摂動学習に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-14T21:15:29Z) - Approximated Likelihood Ratio: A Forward-Only and Parallel Framework for Boosting Neural Network Training [30.452060061499523]
本稿では、勾配推定における計算およびメモリ要求を軽減するために、LR法を近似する手法を提案する。
ニューラルネットワークトレーニングにおける近似手法の有効性を実験により実証した。
論文 参考訳(メタデータ) (2024-03-18T23:23:50Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - Selfish Sparse RNN Training [13.165729746380816]
本稿では,1回のランでパラメータ数を固定したスパースRNNを,性能を損なうことなく訓練する手法を提案する。
我々はPenn TreeBankとWikitext-2の様々なデータセットを用いて最先端のスパーストレーニング結果を得る。
論文 参考訳(メタデータ) (2021-01-22T10:45:40Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - A Practical Layer-Parallel Training Algorithm for Residual Networks [41.267919563145604]
ResNetのトレーニングのための勾配ベースのアルゴリズムは、通常、入力データの前方パスを必要とし、続いてパラメータを更新するために目的の勾配をバックプロパゲートする。
本稿では,データ拡張を実現するための新しいシリアル並列ハイブリッドトレーニング戦略と,通信コスト削減のためのダウンサンプリングフィルタを提案する。
論文 参考訳(メタデータ) (2020-09-03T06:03:30Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。