論文の概要: Simultaneous Learning and Optimization via Misspecified Saddle Point Problems
- arxiv url: http://arxiv.org/abs/2510.05241v1
- Date: Mon, 06 Oct 2025 18:07:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.932611
- Title: Simultaneous Learning and Optimization via Misspecified Saddle Point Problems
- Title(参考訳): 相違点問題による同時学習と最適化
- Authors: Mohammad Mahdi Ahmadi, Erfan Yazdandoost Hamedani,
- Abstract要約: 本研究では,不特定サドル点問題(SP)のクラスについて検討し,最適化の目的が未知のパラメータに依存することを示した。
本稿では,ハメダニとAybat 2021による加速原始双対(APD)に基づく2つのアルゴリズムを提案する。
どちらの手法も$mathcalO(log K / K)$の証明可能な収束率を達成し、学習意識のアプローチはより厳密な$mathcalO(1)$定数を達成する。
- 参考スコア(独自算出の注目度): 4.904092547705666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of misspecified saddle point (SP) problems, where the optimization objective depends on an unknown parameter that must be learned concurrently from data. Unlike existing studies that assume parameters are fully known or pre-estimated, our framework integrates optimization and learning into a unified formulation, enabling a more flexible problem class. To address this setting, we propose two algorithms based on the accelerated primal-dual (APD) by Hamedani & Aybat 2021. In particular, we first analyze the naive extension of the APD method by directly substituting the evolving parameter estimates into the primal-dual updates; then, we design a new learning-aware variant of the APD method that explicitly accounts for parameter dynamics by adjusting the momentum updates. Both methods achieve a provable convergence rate of $\mathcal{O}(\log K / K)$, while the learning-aware approach attains a tighter $\mathcal{O}(1)$ constant and further benefits from an adaptive step-size selection enabled by a backtracking strategy. Furthermore, we extend the framework to problems where the learning problem admits multiple optimal solutions, showing that our modified algorithm for a structured setting achieves an $\mathcal{O}(1/\sqrt{K})$ rate. To demonstrate practical impact, we evaluate our methods on a misspecified portfolio optimization problem and show superior empirical performance compared to state-of-the-art algorithms.
- Abstract(参考訳): 本研究では,データから同時に学習しなければならない未知のパラメータに依存する不特定サドル点(SP)問題のクラスについて検討する。
パラメータが完全に知られている、あるいは事前に見積もられていると仮定する既存の研究とは異なり、我々のフレームワークは最適化と学習を統一的な定式化に統合し、より柔軟な問題クラスを可能にします。
本研究では,ハメダニ&アイバット2021の加速原始双対(APD)に基づく2つのアルゴリズムを提案する。
特に,進化するパラメータ推定値を直接原始双対更新に置き換えることにより,APD手法のナイーブ拡張を解析し,モーメント更新を調整することでパラメータのダイナミクスを明示的に考慮した,APD手法の新たな学習対応変種を設計する。
どちらの手法も$\mathcal{O}(\log K / K)$の証明可能な収束率を達成し、学習意識のアプローチはより厳密な$\mathcal{O}(1)$定数に達し、バックトラック戦略によって可能となる適応的なステップサイズ選択の恩恵を受ける。
さらに、学習問題が複数の最適解を許容する問題までフレームワークを拡張し、構造化された設定に対する修正アルゴリズムが$\mathcal{O}(1/\sqrt{K})$ rateを達成することを示す。
提案手法の有効性を実証するため,提案手法を不特定ポートフォリオ最適化問題において評価し,最先端のアルゴリズムと比較して経験的性能が優れていることを示す。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Fast Two-Time-Scale Stochastic Gradient Method with Applications in Reinforcement Learning [5.325297567945828]
本稿では,従来の手法よりもはるかに高速な収束を実現する2段階最適化手法を提案する。
提案手法は,既存の最先端技術に匹敵する,あるいは適合する新しいオンラインサンプルベース手法に特化していることを示す。
論文 参考訳(メタデータ) (2024-05-15T19:03:08Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Optimal Convergence Rate for Exact Policy Mirror Descent in Discounted
Markov Decision Processes [18.35462792871242]
Policy Mirror Descentは、強化学習における様々な新しい基本的な手法を網羅するアルゴリズムのファミリーである。
不正確な政策評価を伴う政策反復の不安定性に動機づけられたPMDは、PIの政策改善ステップをアルゴリズム的に規則化する。
我々は,適応的なステップサイズの下で,非正規化PSDアルゴリズムの一般ファミリーによって,PIの次元自由な$gamma$-rateが達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-22T13:55:08Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。