論文の概要: Memory-efficient training with streaming dimensionality reduction
- arxiv url: http://arxiv.org/abs/2004.12041v1
- Date: Sat, 25 Apr 2020 02:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 21:15:47.307306
- Title: Memory-efficient training with streaming dimensionality reduction
- Title(参考訳): ストリーミング次元削減によるメモリ効率トレーニング
- Authors: Siyuan Huang, Brian D. Hoskins, Matthew W. Daniels, Mark D. Stiles,
Gina C. Adam
- Abstract要約: 本稿では,Deep Neural Networkトレーニングのための更新アルゴリズムとして,ストリーミングバッチコンポーネント分析を導入する。
ストリーミングバッチコンポーネント分析により、さまざまな共通データセット上で畳み込みニューラルネットワークを効果的にトレーニングできることが示される。
- 参考スコア(独自算出の注目度): 14.198224213972173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The movement of large quantities of data during the training of a Deep Neural
Network presents immense challenges for machine learning workloads. To minimize
this overhead, especially on the movement and calculation of gradient
information, we introduce streaming batch principal component analysis as an
update algorithm. Streaming batch principal component analysis uses stochastic
power iterations to generate a stochastic k-rank approximation of the network
gradient. We demonstrate that the low rank updates produced by streaming batch
principal component analysis can effectively train convolutional neural
networks on a variety of common datasets, with performance comparable to
standard mini batch gradient descent. These results can lead to both
improvements in the design of application specific integrated circuits for deep
learning and in the speed of synchronization of machine learning models trained
with data parallelism.
- Abstract(参考訳): Deep Neural Networkのトレーニング中の大量のデータの移動は、機械学習ワークロードに対する大きな課題を提示します。
このオーバーヘッドを最小限に抑えるために,特に勾配情報の移動と計算において,ストリームバッチ主成分分析を更新アルゴリズムとして導入する。
ストリーミングバッチ主成分分析は、確率的パワーイテレーションを使用して、ネットワーク勾配の確率的kランク近似を生成する。
ストリーミングバッチの主成分分析によって生成される低ランク更新は、様々な共通データセット上で畳み込みニューラルネットワークを効果的にトレーニングできることを実証し、標準のミニバッチ勾配降下に匹敵する性能を示す。
これらの結果は、ディープラーニングのためのアプリケーション固有の集積回路の設計と、データ並列性で訓練された機械学習モデルの同期速度の両方の改善につながる。
関連論文リスト
- Training Hamiltonian neural networks without backpropagation [0.0]
本稿では,ハミルトニアン系を近似するニューラルネットワークのトレーニングを高速化するバックプロパゲーションフリーアルゴリズムを提案する。
従来のハミルトニアンニューラルネットワークよりもCPUの方が100倍以上高速であることを示す。
論文 参考訳(メタデータ) (2024-11-26T15:22:30Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - On transfer learning of neural networks using bi-fidelity data for
uncertainty propagation [0.0]
本研究では,高忠実度モデルと低忠実度モデルの両方から生成された学習データを用いた伝達学習手法の適用について検討する。
前者のアプローチでは、低忠実度データに基づいて、入力を関心の出力にマッピングするニューラルネットワークモデルを訓練する。
次に、高忠実度データを使用して、低忠実度ネットワークの上層(s)のパラメータを適応させたり、より単純なニューラルネットワークをトレーニングして、低忠実度ネットワークの出力を高忠実度モデルのパラメータにマッピングする。
論文 参考訳(メタデータ) (2020-02-11T15:56:11Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。