論文の概要: Orthogonalising gradients to speed up neural network optimisation
- arxiv url: http://arxiv.org/abs/2202.07052v1
- Date: Mon, 14 Feb 2022 21:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 08:28:28.159886
- Title: Orthogonalising gradients to speed up neural network optimisation
- Title(参考訳): ニューラルネットワークの最適化を高速化する直交勾配
- Authors: Mark Tuddenham, Adam Pr\"ugel-Bennett, Jonathan Hare
- Abstract要約: ニューラルネットワークの最適化は、最適化ステップの前に勾配を直交させ、学習された表現の多様化を保証することで、スピンアップすることができる。
この手法を ImageNet と CIFAR-10 上でテストした結果,学習時間が大幅に減少し,半教師付き学習BarlowTwins の高速化が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The optimisation of neural networks can be sped up by orthogonalising the
gradients before the optimisation step, ensuring the diversification of the
learned representations. We orthogonalise the gradients of the layer's
components/filters with respect to each other to separate out the intermediate
representations. Our method of orthogonalisation allows the weights to be used
more flexibly, in contrast to restricting the weights to an orthogonalised
sub-space. We tested this method on ImageNet and CIFAR-10 resulting in a large
decrease in learning time, and also obtain a speed-up on the semi-supervised
learning BarlowTwins. We obtain similar accuracy to SGD without fine-tuning and
better accuracy for na\"ively chosen hyper-parameters.
- Abstract(参考訳): ニューラルネットワークの最適化は、最適化ステップの前に勾配を直交し、学習した表現の多様化を確実にすることで加速することができる。
我々は、中間表現を分離するために、レイヤのコンポーネント/フィルタの勾配を互いに直交させます。
直交化法は, 重みを直交部分空間に制限することとは対照的に, より柔軟に重みを使うことができる。
我々はこの手法をImageNetとCIFAR-10でテストし、学習時間の大幅な削減と半教師付き学習BarlowTwinsの高速化を得た。
sgdと同様の精度を,na\"選択ハイパーパラメータの微調整や精度向上を伴わずに得る。
関連論文リスト
- Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - Approximation and Gradient Descent Training with Neural Networks [0.0]
最近の研究は、ニューラル・タンジェント・カーネル(NTK)最適化の議論を過度にパラメータ化された状態に拡張している。
本稿では,勾配降下法により学習したネットワークの類似性を示す。
論文 参考訳(メタデータ) (2024-05-19T23:04:09Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Layer-wise Adaptive Step-Sizes for Stochastic First-Order Methods for
Deep Learning [8.173034693197351]
深層学習における一階最適化のための新しい階層ごとの適応的なステップサイズ手順を提案する。
提案手法は,ディープニューラルネットワーク(DNN)におけるヘシアン対角ブロックに含まれる層次曲率情報を用いて,各層に対する適応的なステップサイズ(LR)を算出する。
数値実験により、SGDの運動量とAdamWと、提案した層ごとのステップサイズを組み合わせることで、効率的なLRスケジュールを選択できることが示されている。
論文 参考訳(メタデータ) (2023-05-23T04:12:55Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - POGD: Gradient Descent with New Stochastic Rules [0.0]
本稿では,主に目標値に達するためのトレーニング速度と,局所的最小値を防止する能力に着目した。
本稿では,MNISTとcifar-10データセットを用いた畳み込みニューラルネットワーク(CNN)画像分類により実験を行った。
論文 参考訳(メタデータ) (2022-10-15T12:31:02Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Improved Analysis of Clipping Algorithms for Non-convex Optimization [19.507750439784605]
最近、citetzhang 2019gradient show that clipped (stochastic) Gradient Descent (GD) converges faster than vanilla GD/SGD。
実験は、深層学習におけるクリッピングに基づく手法の優位性を確認する。
論文 参考訳(メタデータ) (2020-10-05T14:36:59Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z) - Stochastic gradient descent with random learning rate [0.0]
本稿では,一様分散ランダム学習率でニューラルネットワークを最適化することを提案する。
ランダムな学習率プロトコルを周期的および定常的なプロトコルと比較することにより、ランダムな選択は、一般に小規模学習率体系における最良の戦略であると示唆する。
我々は、MNISTデータセットとCIFAR10データセットの画像分類のための、浅い、完全に接続された、深い、畳み込みニューラルネットワークの実験を通じて、支持エビデンスを提供する。
論文 参考訳(メタデータ) (2020-03-15T21:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。