論文の概要: Natural Gradient for Combined Loss Using Wavelets
- arxiv url: http://arxiv.org/abs/2006.15806v1
- Date: Mon, 29 Jun 2020 04:49:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:24:49.027150
- Title: Natural Gradient for Combined Loss Using Wavelets
- Title(参考訳): ウェーブレットを用いた複合損失の自然勾配
- Authors: Lexing Ying
- Abstract要約: 自然勾配は確率空間上の損失関数の最適化に広く用いられている。
我々は,コンパクトに支持されたウェーブレットを用いて,結合損失のヘシアンをほぼ対角化する新しい自然勾配アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.246588213999515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural gradients have been widely used in optimization of loss functionals
over probability space, with important examples such as Fisher-Rao gradient
descent for Kullback-Leibler divergence, Wasserstein gradient descent for
transport-related functionals, and Mahalanobis gradient descent for quadratic
loss functionals. This note considers the situation in which the loss is a
convex linear combination of these examples. We propose a new natural gradient
algorithm by utilizing compactly supported wavelets to diagonalize
approximately the Hessian of the combined loss. Numerical results are included
to demonstrate the efficiency of the proposed algorithm.
- Abstract(参考訳): 自然勾配は確率空間上の損失汎関数の最適化に広く使われており、クルバック・ライバー分岐のフィッシャー-ラオ勾配降下、輸送関連関数のワッサーシュタイン勾配降下、二次損失汎関数のマハラノビス勾配降下などの重要な例がある。
ここでは、損失がこれらの例の凸線型結合である状況について考察する。
本研究では,コンパクトにサポートされたウェーブレットを併用した新しい自然勾配アルゴリズムを提案する。
提案アルゴリズムの効率性を示すために, 数値計算結果を含む。
関連論文リスト
- One-step corrected projected stochastic gradient descent for statistical estimation [49.1574468325115]
これは、Fisherスコアリングアルゴリズムの1ステップで修正されたログ様関数の予測勾配勾配に基づいている。
理論およびシミュレーションにより、平均勾配勾配や適応勾配勾配の通常の勾配勾配の代替として興味深いものであることを示す。
論文 参考訳(メタデータ) (2023-06-09T13:43:07Z) - Stability vs Implicit Bias of Gradient Methods on Separable Data and
Beyond [33.593203156666746]
分離線形分類に適用された非正規化勾配に基づく学習手順の一般化特性に着目する。
この一般化についてさらに統一的な説明をし、実現可能性と自己有界性(self-boundedness)と呼ぶ。
これらのケースのいくつかでは、文献における既存の一般化誤差境界に対して、我々の境界は著しく改善される。
論文 参考訳(メタデータ) (2022-02-27T19:56:36Z) - On the influence of roundoff errors on the convergence of the gradient
descent method with low-precision floating-point computation [0.0]
ゼロバイアス特性を小さな勾配を維持する確率で交換する新しいラウンドリング方式を提案する。
提案手法は,各イテレーションにおいて降下方向にある一定の丸みバイアスを生じさせる。
論文 参考訳(メタデータ) (2022-02-24T18:18:20Z) - Random-reshuffled SARAH does not need a full gradient computations [61.85897464405715]
StochAstic Recursive grAdientritHm (SARAH)アルゴリズムは、Gradient Descent (SGD)アルゴリズムのばらつき低減版である。
本稿では,完全勾配の必要性を除去する。
集約された勾配は、SARAHアルゴリズムの完全な勾配の見積もりとなる。
論文 参考訳(メタデータ) (2021-11-26T06:00:44Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Stochasticity helps to navigate rough landscapes: comparing
gradient-descent-based algorithms in the phase retrieval problem [8.164433158925593]
本研究では,動的降下,永続勾配,ランジュバン景観降下などの解析ベースアルゴリズムについて検討する。
統計的軌道からの統計場理論をアルゴリズムにフルタイムで適用し、開始時と大規模なシステムサイズで適用します。
論文 参考訳(メタデータ) (2021-03-08T17:06:18Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。