論文の概要: Evolution Strategies Converges to Finite Differences
- arxiv url: http://arxiv.org/abs/2001.01684v1
- Date: Fri, 27 Dec 2019 19:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 22:46:00.409304
- Title: Evolution Strategies Converges to Finite Differences
- Title(参考訳): 進化戦略は差分に収束する
- Authors: John C. Raisbeck (1), Matthew Allen (1), Ralph Weissleder (1),
Hyungsoon Im (1), Hakho Lee (1) ((1) Massachusetts General Hospital)
- Abstract要約: 2017年にSalimansらによる強化学習のツールとしてEvolution Strategies (ES)が登場して以来、進化戦略と類似のアルゴリズムの勾配の正確な関係を決定することに関心が寄せられている。
本稿では、勾配が異なるが、最適化下のベクトルの次元が増加するにつれて収束することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the debut of Evolution Strategies (ES) as a tool for Reinforcement
Learning by Salimans et al. 2017, there has been interest in determining the
exact relationship between the Evolution Strategies gradient and the gradient
of a similar class of algorithms, Finite Differences (FD).(Zhang et al. 2017,
Lehman et al. 2018) Several investigations into the subject have been
performed, investigating the formal motivational differences(Lehman et al.
2018) between ES and FD, as well as the differences in a standard benchmark
problem in Machine Learning, the MNIST classification problem(Zhang et al.
2017). This paper proves that while the gradients are different, they converge
as the dimension of the vector under optimization increases.
- Abstract(参考訳): 2017年にSalimansらによる強化学習のツールとしてEvolution Strategies (ES)が登場して以来、進化戦略勾配と類似のアルゴリズムであるFinite differences (FD)の勾配の正確な関係を決定することに関心が寄せられている。
(Zhang et al. 2017、Lehman et al. 2018)
ESとFDの正式なモチベーションの違い(Lehman et al. 2018)、機械学習における標準ベンチマーク問題、MNIST分類問題(Zhang et al. 2017)などについて、いくつかの調査が行われている。
本稿では、勾配が異なるが、最適化下のベクトルの次元が増加するにつれて収束することを示す。
関連論文リスト
- Classifier-guided Gradient Modulation for Enhanced Multimodal Learning [50.7008456698935]
Gradient-Guided Modulation (CGGM) は,マルチモーダル学習と勾配のバランスをとる新しい手法である。
UPMC-Food 101, CMU-MOSI, IEMOCAP, BraTSの4つのマルチモーダルデータセットについて広範な実験を行った。
CGGMはすべてのベースラインや最先端のメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2024-11-03T02:38:43Z) - Dynamic Decoupling of Placid Terminal Attractor-based Gradient Descent Algorithm [56.06235614890066]
勾配降下(GD)と勾配降下(SGD)は多くのアプリケーションドメインで広く使われている。
本稿では, 勾配流の異なる段階における終端アトラクタに基づくGDのダイナミクスを慎重に解析する。
論文 参考訳(メタデータ) (2024-09-10T14:15:56Z) - Deep Learning with Parametric Lenses [0.3645042846301408]
本稿では、レンズ、パラメトリックマップ、および逆微分カテゴリの観点から機械学習アルゴリズムの分類的意味論を提案する。
この財団は強力な説明と統一の枠組みを提供する。
我々はPythonの実装でフレームワークの実用的重要性を実証する。
論文 参考訳(メタデータ) (2024-03-30T16:34:28Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - Closing the gap between SVRG and TD-SVRG with Gradient Splitting [17.071971639540976]
時間差(TD)学習は、分散還元法により性能を向上できる強化学習における政策評価である。
最近の研究は、TD学習の解釈を、適切に選択された関数の勾配の分割として利用し、アルゴリズムを簡素化し、SVRGとTDを融合させる。
本研究の主な成果は,1/8ドルの学習率を持つ幾何学的収束であり,凸条件下でSVRGが利用できる収束値と同一である。
論文 参考訳(メタデータ) (2022-11-29T14:21:34Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z) - Categorical Foundations of Gradient-Based Learning [0.31498833540989407]
本稿では,レンズ,パラメータマップ,逆微分カテゴリの観点から,勾配に基づく機械学習アルゴリズムの分類的基礎を提案する。
このフレームワークは強力な説明と統一のフレームワークを提供し、その類似性と相違点に新しい光を当てている。
我々はまた,Pythonにおける勾配に基づく学習の新たな実装を開発し,フレームワークが導入した原則から情報を得た。
論文 参考訳(メタデータ) (2021-03-02T18:43:10Z) - Spherical Feature Transform for Deep Metric Learning [58.35971328774927]
本研究は,新しい球面特徴変換手法を提案する。
これは、クラス間の同一共分散の仮定を、超球面上の異なるクラスの類似共分散の仮定に緩和する。
本研究では,2つの異なる変換間の関係について,簡便かつ効果的な学習法と深度解析を行う。
論文 参考訳(メタデータ) (2020-08-04T11:32:23Z) - Distributed Learning with Compressed Gradient Differences [18.390802215440992]
大規模な機械学習モデルのトレーニングには、ボトルネックとなるモデル更新のコミュニケーションが必要である。
更新の圧縮(スペーシフィケーションや量子化など)に基づくいくつかの方法が最近提案されている。
本稿では,バッチ圧縮率の違いによってこの問題を解決する分散学習手法を提案する。
論文 参考訳(メタデータ) (2019-01-26T19:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。