論文の概要: Can Forward Gradient Match Backpropagation?
- arxiv url: http://arxiv.org/abs/2306.06968v1
- Date: Mon, 12 Jun 2023 08:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:19:07.042117
- Title: Can Forward Gradient Match Backpropagation?
- Title(参考訳): 後方方向マッチングは可能か?
- Authors: Louis Fournier (MLIA), St\'ephane Rivaud (MLIA), Eugene Belilovsky
(MILA), Michael Eickenberg, Edouard Oyallon (MLIA)
- Abstract要約: フォワードグラディエントはニューラルネットワークトレーニングに有効であることが示されている。
我々は、小さな局所的な補助ネットワークから得られるフィードバックなど、より有望な方向の勾配推定を強く偏り付けることを提案する。
局所損失から得られた勾配を候補方向として用いた場合,前方勾配法におけるランダムノイズを大幅に改善することがわかった。
- 参考スコア(独自算出の注目度): 2.875726839945885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forward Gradients - the idea of using directional derivatives in forward
differentiation mode - have recently been shown to be utilizable for neural
network training while avoiding problems generally associated with
backpropagation gradient computation, such as locking and memorization
requirements. The cost is the requirement to guess the step direction, which is
hard in high dimensions. While current solutions rely on weighted averages over
isotropic guess vector distributions, we propose to strongly bias our gradient
guesses in directions that are much more promising, such as feedback obtained
from small, local auxiliary networks. For a standard computer vision neural
network, we conduct a rigorous study systematically covering a variety of
combinations of gradient targets and gradient guesses, including those
previously presented in the literature. We find that using gradients obtained
from a local loss as a candidate direction drastically improves on random noise
in Forward Gradient methods.
- Abstract(参考訳): フォワードグラディエント(Forward Gradients) — 前方微分モードで指向性デリバティブを使用するというアイデアは、最近、ニューラルネットワークトレーニングに利用でき、ロックや記憶要求といったバックプロパゲーション勾配計算に一般的に関連する問題を回避することが示されている。
コストはステップの方向を推測する必要性であり、高次元では難しい。
現在の解は等方的推定ベクトル分布よりも重み付き平均に依存するが、小さな局所補助ネットワークから得られるフィードバックなど、より有望な方向の勾配推定を強く偏り付けることを提案する。
標準的なコンピュータビジョンニューラルネットワークでは,従来文献で紹介されていたような,勾配目標と勾配推定の組み合わせを体系的に網羅した厳密な研究を行う。
前向き勾配法では,局所損失から得られた勾配を候補方向として,ランダムノイズを大幅に改善することがわかった。
関連論文リスト
- Correlations Are Ruining Your Gradient Descent [1.2432046687586285]
自然勾配降下は、最も急勾配の方向を示す勾配ベクトルが、損失景観の局所曲率を考慮することにより、どのように改善されるかを照らしている。
ニューラルネットワークの各層におけるノード応答を含む,任意の線形変換におけるデータの相関が,モデルパラメータ間の非正規的関係を生じさせることを示す。
本稿では,ノード出力のデコレーションと白化のために提案された手法について述べるとともに,これを拡張し,分散コンピューティングや計算神経科学に特に有用な新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-15T14:59:43Z) - A Learning Paradigm for Interpretable Gradients [9.074325843851726]
本稿では,解釈可能性向上のための新たな学習手法を提案する。
得られた勾配は定性的にノイズが少なく、異なるネットワークの解釈可能性特性を定量的に改善する。
論文 参考訳(メタデータ) (2024-04-23T13:32:29Z) - How to guess a gradient [68.98681202222664]
我々は、勾配が以前考えられていたよりもより構造化されていることを示す。
この構造をエクスプロイトすると、勾配のない最適化スキームが大幅に改善される。
厳密な勾配の最適化と勾配の推測の間に大きなギャップを克服する上での新たな課題を強調した。
論文 参考訳(メタデータ) (2023-12-07T21:40:44Z) - NeuralGF: Unsupervised Point Normal Estimation by Learning Neural
Gradient Function [55.86697795177619]
3次元点雲の正規推定は3次元幾何処理の基本的な課題である。
我々は,ニューラルネットワークが入力点雲に適合することを奨励する,ニューラルグラデーション関数の学習のための新しいパラダイムを導入する。
広範に使用されているベンチマークの優れた結果から,本手法は非指向性および指向性正常推定タスクにおいて,より正確な正規性を学習できることが示されている。
論文 参考訳(メタデータ) (2023-11-01T09:25:29Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。