論文の概要: Discrete Natural Evolution Strategies
- arxiv url: http://arxiv.org/abs/2404.00208v1
- Date: Sat, 30 Mar 2024 01:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 06:46:13.644417
- Title: Discrete Natural Evolution Strategies
- Title(参考訳): 離散的な自然進化戦略
- Authors: Ahmad Ayaz Amin,
- Abstract要約: 本稿では、離散パラメータ空間のアルゴリズムを導出し、離散パラメータを含むタスクにおいてその効果を実証する。
自然進化戦略(英: natural evolution strategy)は、連続パラメータ空間にうまく使われてきた近似段階的なブラックボックスクラスである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural evolution strategies are a class of approximate-gradient black-box optimizers that have been successfully used for continuous parameter spaces. In this paper, we derive NES algorithms for discrete parameter spaces and demonstrate their effectiveness in tasks involving discrete parameters.
- Abstract(参考訳): 自然進化戦略(英: natural evolution strategy)は、連続パラメータ空間にうまく使われている近似階調ブラックボックスオプティマイザのクラスである。
本稿では、離散パラメータ空間に対するNESアルゴリズムを導出し、離散パラメータを含むタスクにおいてその効果を実証する。
関連論文リスト
- Information Geometry and Beta Link for Optimizing Sparse Variational Student-t Processes [6.37512592611305]
勾配勾配勾配を用いた実世界のデータセットの計算効率と柔軟性を向上させるために,学生Tプロセスが提案されている。
アダムのような伝統的な勾配降下法はパラメータ空間の幾何を十分に活用しない可能性があり、収束と準最適性能を遅くする可能性がある。
我々は,情報幾何学から自然勾配法を適用し,学生-tプロセスの変分パラメータ最適化を行う。
論文 参考訳(メタデータ) (2024-08-13T07:53:39Z) - Spectrum-Aware Parameter Efficient Fine-Tuning for Diffusion Models [73.88009808326387]
生成モデルのための新しいスペクトル対応適応フレームワークを提案する。
本手法は,事前学習した重みの特異値とその基底ベクトルを調節する。
本稿では,計算効率と表現能力のバランスをとるスペクトルオーソ分解適応(SODA)を提案する。
論文 参考訳(メタデータ) (2024-05-31T17:43:35Z) - Optimization of Discrete Parameters Using the Adaptive Gradient Method
and Directed Evolution [49.1574468325115]
最適解の探索は、個人の集団によって行われる。
適応していない個体は死に、最適な個体は交配し、結果として進化力学が導かれた。
論文 参考訳(メタデータ) (2024-01-12T15:45:56Z) - A Metaheuristic for Amortized Search in High-Dimensional Parameter
Spaces [0.0]
本稿では,特徴インフォームド変換から次元還元を実現するメタヒューリスティックを提案する。
DR-FFITは、高次元空間における勾配自由パラメータ探索を容易にする効率的なサンプリング戦略を実装している。
実験データから,DR-FFITは,確立したメタヒューリスティックスに対するランダム検索とシミュレート・アニーリングの性能を向上させることが示された。
論文 参考訳(メタデータ) (2023-09-28T14:25:14Z) - Learning minimal representations of stochastic processes with
variational autoencoders [52.99137594502433]
プロセスを記述するのに必要なパラメータの最小セットを決定するために、教師なしの機械学習アプローチを導入する。
我々の手法はプロセスを記述する未知のパラメータの自律的な発見を可能にする。
論文 参考訳(メタデータ) (2023-07-21T14:25:06Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Learning Discrete Structured Variational Auto-Encoder using Natural
Evolution Strategies [40.401462193815796]
我々は、勾配のないブラックボックス最適化アルゴリズムのクラスであるNatural Evolution Strategies (NES) を用いて、離散的構造化されたVAEを学習する。
NESアルゴリズムは、フォワードパス評価のみで勾配を推定するので、計算的に魅力的である。
NES を用いた離散構造型VAE の最適化は勾配に基づく近似と同じくらい効果的であることを示す。
論文 参考訳(メタデータ) (2022-05-03T06:21:40Z) - Tractable structured natural gradient descent using local
parameterizations [43.51581051770027]
構造化パラメータ空間上の自然勾配降下は、複雑な逆フィッシャー行列計算により計算的に困難である。
我々は, emphlocal-パラメータ座標を用いてこの問題に対処する。
我々は、ディープラーニング、変分推論、進化戦略に関する様々な応用について結果を示す。
論文 参考訳(メタデータ) (2021-02-15T09:09:20Z) - Natural Evolutionary Strategies for Variational Quantum Computation [0.7874708385247353]
自然進化戦略 (NES) は勾配のないブラックボックス最適化アルゴリズムの一群である。
本研究では、無作為化パラメトリゼーション量子回路(PQC)の減衰勾配領域における最適化への応用について述べる。
論文 参考訳(メタデータ) (2020-11-30T21:23:38Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。