論文の概要: Self-adaptive algorithms for quasiconvex programming and applications to
machine learning
- arxiv url: http://arxiv.org/abs/2212.06379v1
- Date: Tue, 13 Dec 2022 05:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:42:25.843343
- Title: Self-adaptive algorithms for quasiconvex programming and applications to
machine learning
- Title(参考訳): 準凸プログラミングのための自己適応アルゴリズムと機械学習への応用
- Authors: Thang Tran Ngoc, Hai Trinh Ngoc
- Abstract要約: 凸線探索技術や,軽微な仮定の下での汎用的アプローチを含まない,自己適応的なステップサイズ戦略を提案する。
提案手法は,いくつかの計算例から予備的な結果によって検証される。
大規模問題に対する提案手法の有効性を実証するため,機械学習実験に適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For solving a broad class of nonconvex programming problems on an unbounded
constraint set, we provide a self-adaptive step-size strategy that does not
include line-search techniques and establishes the convergence of a generic
approach under mild assumptions. Specifically, the objective function may not
satisfy the convexity condition. Unlike descent line-search algorithms, it does
not need a known Lipschitz constant to figure out how big the first step should
be. The crucial feature of this process is the steady reduction of the step
size until a certain condition is fulfilled. In particular, it can provide a
new gradient projection approach to optimization problems with an unbounded
constrained set. The correctness of the proposed method is verified by
preliminary results from some computational examples. To demonstrate the
effectiveness of the proposed technique for large-scale problems, we apply it
to some experiments on machine learning, such as supervised feature selection,
multi-variable logistic regressions and neural networks for classification.
- Abstract(参考訳): 非凸プログラミングの幅広いクラスを非有界制約集合上で解くために、線形探索技法を含まない自己適応的なステップサイズ戦略を提供し、穏やかな仮定の下で一般的なアプローチの収束を確立する。
具体的には、目的関数は凸条件を満たすことができない。
降下線探索アルゴリズムとは異なり、最初のステップがどれくらい大きいかを知るために既知のリプシッツ定数は必要ない。
このプロセスの重要な特徴は、一定の条件が満たされるまでステップサイズを安定的に減少させることである。
特に、非有界制約集合を持つ最適化問題に対する新しい勾配投影法を提供することができる。
提案手法の正確性は,いくつかの計算例から得られた予備結果によって検証される。
大規模問題に対する提案手法の有効性を実証するために,教師付き特徴選択,多変量ロジスティック回帰,分類のためのニューラルネットワークなどの機械学習実験に適用する。
関連論文リスト
- A Penalty-Based Guardrail Algorithm for Non-Decreasing Optimization with Inequality Constraints [1.5498250598583487]
伝統的な数学的プログラミングの解法は制約付き最小化問題を解くのに長い計算時間を必要とする。
ペナルティに基づくガードレールアルゴリズム(PGA)を提案する。
論文 参考訳(メタデータ) (2024-05-03T10:37:34Z) - Adaptive multi-gradient methods for quasiconvex vector optimization and
applications to multi-task learning [1.03590082373586]
線形探索手法を含まない適応的なステップサイズ法を提案する。
我々は、控えめな仮定に基づく非有界収束を証明した。
提案手法をマルチタスク実験に適用し,大規模課題に対する有効性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:20:14Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Infeasible Deterministic, Stochastic, and Variance-Reduction Algorithms for Optimization under Orthogonality Constraints [9.301728976515255]
本稿では,着陸アルゴリズムの実用化と理論的展開について述べる。
まず、この方法はスティーフェル多様体に拡張される。
また、コスト関数が多くの関数の平均である場合の分散還元アルゴリズムについても検討する。
論文 参考訳(メタデータ) (2023-03-29T07:36:54Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained
Optimization [25.73397307080647]
本稿では,汎用凸あるいは非汎用機械目標の新しいモデルを提案する。
本稿では,各サブプロブレムの点レベルを徐々に緩和した制約を解くアルゴリズムを提案する。
我々は,新しい数値スケール問題の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T05:24:05Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。