論文の概要: A Regularized Limited Memory BFGS method for Large-Scale Unconstrained
Optimization and its Efficient Implementations
- arxiv url: http://arxiv.org/abs/2101.04413v1
- Date: Tue, 12 Jan 2021 11:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 00:42:57.612742
- Title: A Regularized Limited Memory BFGS method for Large-Scale Unconstrained
Optimization and its Efficient Implementations
- Title(参考訳): 大規模非制約最適化のための正規化限定メモリBFGS法とその効率的な実装
- Authors: Hardik Tankaria, Shinji Sugimoto and Nobuo Yamashita
- Abstract要約: そこで本研究では,特定の正規化手法を用いた新しい制限メモリBFGS (L-BFGS) 法を提案する。
通常の仮定の下では、そのグローバルな収束を示す。
また、ノンモノトーン法やウルフ線探索の同時利用など、いくつかの手法で拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The limited memory BFGS (L-BFGS) method is one of the popular methods for
solving large-scale unconstrained optimization. Since the standard L-BFGS
method uses a line search to guarantee its global convergence, it sometimes
requires a large number of function evaluations. To overcome the difficulty, we
propose a new L-BFGS with a certain regularization technique. We show its
global convergence under the usual assumptions. In order to make the method
more robust and efficient, we also extend it with several techniques such as
nonmonotone technique and simultaneous use of the Wolfe line search. Finally,
we present some numerical results for test problems in CUTEst, which show that
the proposed method is robust in terms of solving number of problems.
- Abstract(参考訳): リミテッドメモリBFGS(L-BFGS)法は、大規模非制約最適化の一般的な方法の1つである。
標準L-BFGS法はラインサーチを用いてグローバル収束を保証するため、時には多数の関数評価を必要とする。
難易度を克服するために,一定の正規化技術を備えた新しいl-bfgsを提案する。
通常の仮定の下で、そのグローバル収束を示す。
本手法をより堅牢かつ効率的にするために,ノンモノトーン法やWolfe線探索の同時利用など,いくつかの手法で拡張する。
最後に, CUTEstにおけるテスト問題に対する数値計算結果について述べる。
関連論文リスト
- Efficient Line Search Method Based on Regression and Uncertainty Quantification [7.724860428430271]
制約のない最適化問題は、通常、最適なステップ長を決定するために反復法を用いて解決される。
本稿では,ベイズ最適化を用いた新しい線探索手法を提案する。
既存の最先端手法と比較して優れた性能を示し、同等のリソース使用量で最適性に多くの問題を解決している。
論文 参考訳(メタデータ) (2024-05-17T16:35:20Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - No-Regret Constrained Bayesian Optimization of Noisy and Expensive
Hybrid Models using Differentiable Quantile Function Approximations [0.0]
Constrained Upper Quantile Bound (CUQB) は、制約近似を避けるための概念的に単純で決定論的アプローチである。
CUQBは制約のある場合と制約のない場合の両方において従来のベイズ最適化よりも著しく優れることを示す。
論文 参考訳(メタデータ) (2023-05-05T19:57:36Z) - Sarah Frank-Wolfe: Methods for Constrained Optimization with Best Rates and Practical Features [65.64276393443346]
Frank-Wolfe (FW) 法は、構造化制約による最適化問題の解法として一般的な手法である。
有限サム勾配の最小化のためのアルゴリズムの2つの新しい変種を示す。
論文 参考訳(メタデータ) (2023-04-23T20:05:09Z) - Explicit Second-Order Min-Max Optimization Methods with Optimal Convergence Guarantee [86.05440220344755]
我々は,非制約のmin-max最適化問題のグローバルなサドル点を求めるために,不正確な正規化ニュートン型手法を提案し,解析する。
提案手法は有界集合内に留まるイテレートを生成し、その反復は制限関数の項で$O(epsilon-2/3)$内の$epsilon$-saddle点に収束することを示す。
論文 参考訳(メタデータ) (2022-10-23T21:24:37Z) - Quantum Goemans-Williamson Algorithm with the Hadamard Test and
Approximate Amplitude Constraints [62.72309460291971]
本稿では,n+1$ qubitsしか使用しないGoemans-Williamsonアルゴリズムの変分量子アルゴリズムを提案する。
補助量子ビット上で適切にパラメータ化されたユニタリ条件として目的行列を符号化することにより、効率的な最適化を実現する。
各種NPハード問題に対して,Goemans-Williamsonアルゴリズムの量子的効率的な実装を考案し,提案プロトコルの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-30T03:15:23Z) - An Adaptive Incremental Gradient Method With Support for Non-Euclidean
Norms [19.41328109094503]
そこで本研究では,SAGAアルゴリズムの適応型を新たにいくつか提案し,解析する。
一般的な設定の下で収束保証を確立する。
我々は、非ユークリッドノルムをサポートするためにSAGAの分析を改善した。
論文 参考訳(メタデータ) (2022-04-28T09:43:07Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Learning the Step-size Policy for the Limited-Memory
Broyden-Fletcher-Goldfarb-Shanno Algorithm [3.7470451129384825]
本稿では,L-BFGSアルゴリズムのステップサイズポリシの学習方法について考察する。
入力として電流勾配の局所的な情報を用いたニューラルネットワークアーキテクチャを提案する。
ステップ長ポリシは、同様の最適化問題のデータから学習され、目的関数のさらなる評価を回避し、出力ステップが予め定義された間隔内に留まることを保証します。
論文 参考訳(メタデータ) (2020-10-03T09:34:03Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。