論文の概要: Channel-Directed Gradients for Optimization of Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2008.10766v1
- Date: Tue, 25 Aug 2020 00:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 02:51:02.132408
- Title: Channel-Directed Gradients for Optimization of Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークの最適化のためのチャネル指向勾配
- Authors: Dong Lao, Peihao Zhu, Peter Wonka, Ganesh Sundaramoorthi
- Abstract要約: 本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
- 参考スコア(独自算出の注目度): 50.34913837546743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce optimization methods for convolutional neural networks that can
be used to improve existing gradient-based optimization in terms of
generalization error. The method requires only simple processing of existing
stochastic gradients, can be used in conjunction with any optimizer, and has
only a linear overhead (in the number of parameters) compared to computation of
the stochastic gradient. The method works by computing the gradient of the loss
function with respect to output-channel directed re-weighted L2 or Sobolev
metrics, which has the effect of smoothing components of the gradient across a
certain direction of the parameter tensor. We show that defining the gradients
along the output channel direction leads to a performance boost, while other
directions can be detrimental. We present the continuum theory of such
gradients, its discretization, and application to deep networks. Experiments on
benchmark datasets, several networks and baseline optimizers show that
optimizers can be improved in generalization error by simply computing the
stochastic gradient with respect to output-channel directed metrics.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
この方法は既存の確率勾配の単純な処理しか必要とせず、任意の最適化器と組み合わせて使用することができ、確率勾配の計算と比較して線形オーバーヘッド(パラメータ数)しか持たない。
この方法は、パラメータテンソルの特定の方向にわたって勾配の成分を平滑化させる効果を持つ出力チャネル指向再重み付けl2またはソボレフ計量に対する損失関数の勾配を計算することで動作する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
このような勾配の連続理論とその離散化と深層ネットワークへの応用について述べる。
ベンチマークデータセット、複数のネットワーク、ベースラインオプティマイザの実験では、出力チャネル指向メトリクスに対する確率勾配を単純に計算することで、最適化器を一般化誤差で改善できることが示されている。
関連論文リスト
- Beyond Backpropagation: Optimization with Multi-Tangent Forward Gradients [0.08388591755871733]
前向き勾配は、前方モード自動微分によって計算されたランダム接線に沿った方向微分からの勾配を近似するアプローチである。
本稿では,マルチタングルト前方勾配の詳細な解析を行い,プロジェクションに基づく複数の接点からの前方勾配を組み合わせるための改良されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-23T11:02:59Z) - Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Gradients without Backpropagation [16.928279365071916]
本稿では、フォワードモードによって正確に効率的に計算できる方向微分のみに基づいて勾配を計算する方法を提案する。
様々な問題において前方降下勾配を示し、計算の大幅な削減を示し、場合によっては最大2倍の速さで訓練を可能にする。
論文 参考訳(メタデータ) (2022-02-17T11:07:55Z) - Penalizing Gradient Norm for Efficiently Improving Generalization in
Deep Learning [13.937644559223548]
ディープニューラルネットワーク(DNN)をうまく一般化するためのトレーニング方法が、ディープラーニングの中心的な関心事である。
最適化時の損失関数の勾配ノルムをペナルティ化することにより,モデル一般化を効果的に向上する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:03:45Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。