論文の概要: Acceleration of the kernel herding algorithm by improved gradient
approximation
- arxiv url: http://arxiv.org/abs/2105.07900v1
- Date: Mon, 17 May 2021 14:32:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:27:54.141625
- Title: Acceleration of the kernel herding algorithm by improved gradient
approximation
- Title(参考訳): 改良勾配近似による核遺伝アルゴリズムの高速化
- Authors: Kazuma Tsuji and Ken'ichiro Tanaka
- Abstract要約: カーネル・ハーディング(kernel herding)は、再生核ヒルベルト空間において二次公式を構築するために用いられる方法である。
我々は,カーネル・ハーディングアルゴリズムの改良版を2つ提案する。
- 参考スコア(独自算出の注目度): 6.802401545890963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel herding is a method used to construct quadrature formulas in a
reproducing kernel Hilbert space. Although there are some advantages of kernel
herding, such as numerical stability of quadrature and effective outputs of
nodes and weights, the convergence speed of worst-case integration error is
slow in comparison to other quadrature methods. To address this problem, we
propose two improved versions of the kernel herding algorithm. The fundamental
concept of both algorithms involves approximating negative gradients with a
positive linear combination of vertex directions. We analyzed the convergence
and validity of both algorithms theoretically; in particular, we showed that
the approximation of negative gradients directly influences the convergence
speed. In addition, we confirmed the accelerated convergence of the worst-case
integration error with respect to the number of nodes and computational time
through numerical experiments.
- Abstract(参考訳): カーネル・ハーディング(kernel herding)は、再生核ヒルベルト空間において二次公式を構築するために用いられる方法である。
二次数の数値安定性やノードと重みの有効出力など、カーネル・ハーディングの利点はいくつかあるが、最悪の場合の積分誤差の収束速度は他の二次法と比べて遅い。
この問題に対処するため,カーネルハーディングアルゴリズムの2つの改良版を提案する。
両方のアルゴリズムの基本概念は、負の勾配を頂点方向の正の線形結合で近似することである。
両アルゴリズムの収束と妥当性を理論的に解析し,特に負勾配の近似が収束速度に直接影響を与えることを示した。
さらに,ノード数と計算時間に関して,最悪の積分誤差の加速収束を数値実験により確認した。
関連論文リスト
- Distributed Optimization via Energy Conservation Laws in Dilated Coordinates [5.35599092568615]
本稿では,拡張座標における連続時間力学系の解析のためのエネルギー保存手法を提案する。
収束率を逆時間差係数で明示的に表すことができる。
その高速化された収束挙動は、実用的、大規模問題に対する様々な最先端分散最適化アルゴリズムに対してベンチマークされる。
論文 参考訳(メタデータ) (2024-09-28T08:02:43Z) - Incremental Quasi-Newton Methods with Faster Superlinear Convergence
Rates [50.36933471975506]
各成分関数が強く凸であり、リプシッツ連続勾配とヘシアンを持つ有限和最適化問題を考える。
最近提案されたインクリメンタル準ニュートン法は、BFGSの更新に基づいて、局所的な超線形収束率を達成する。
本稿では、対称ランク1更新をインクリメンタルフレームワークに組み込むことにより、より効率的な準ニュートン法を提案する。
論文 参考訳(メタデータ) (2024-02-04T05:54:51Z) - A Globally Convergent Algorithm for Neural Network Parameter
Optimization Based on Difference-of-Convex Functions [29.58728073957055]
隠れ層ネットワークのパラメータを最適化するアルゴリズムを提案する。
具体的には,ブロックワイズ(DC-of-the-art)差分関数を導出する。
論文 参考訳(メタデータ) (2024-01-15T19:53:35Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Nesterov Accelerated Shuffling Gradient Method for Convex Optimization [15.908060383231371]
このアルゴリズムは,統一シャッフル方式を用いて,$mathcalO (1/T)$の改善率を示す。
我々の収束解析は有界領域や有界勾配条件に関する仮定を必要としない。
数値シミュレーションはアルゴリズムの効率を実証する。
論文 参考訳(メタデータ) (2022-02-07T21:23:17Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - A Unified Analysis of First-Order Methods for Smooth Games via Integral
Quadratic Constraints [10.578409461429626]
本研究では、滑らかで強可変なゲームやイテレーションのための一階法に積分二次的制約理論を適用する。
我々は、負の運動量法(NM)に対して、既知の下界と一致する複雑性$mathcalO(kappa1.5)$で、初めて大域収束率を与える。
一段階のメモリを持つアルゴリズムでは,バッチ毎に1回だけ勾配を問合せすれば,高速化は不可能であることを示す。
論文 参考訳(メタデータ) (2020-09-23T20:02:00Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - A Hybrid-Order Distributed SGD Method for Non-Convex Optimization to
Balance Communication Overhead, Computational Complexity, and Convergence
Rate [28.167294398293297]
通信負荷の少ない分散勾配降下法(SGD)を提案する。
各イテレーションにおける計算複雑性を低減するために、ワーカノードは、方向微分をゼロ階勾配推定で近似する。
論文 参考訳(メタデータ) (2020-03-27T14:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。