論文の概要: Convergence Rate of a Functional Learning Method for Contextual Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2603.13048v1
- Date: Fri, 13 Mar 2026 14:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.141223
- Title: Convergence Rate of a Functional Learning Method for Contextual Stochastic Optimization
- Title(参考訳): 文脈確率最適化のための関数型学習法の収束率
- Authors: Noel Smith, Andrzej Ruszczynski,
- Abstract要約: 我々は,条件付き予測を共同で推定し,外的目的を最適化する同時学習最適化アルゴリズムを解析する。
我々は,この手法が次数$mathcalObig (1/sqrtNbig)$の収束率を達成することを証明した。
- 参考スコア(独自算出の注目度): 0.6015898117103067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a stochastic optimization problem involving two random variables: a context variable $X$ and a dependent variable $Y$. The objective is to minimize the expected value of a nonlinear loss functional applied to the conditional expectation $\mathbb{E}[f(X, Y,β) \mid X]$, where $f$ is a nonlinear function and $β$ represents the decision variables. We focus on the practically important setting in which direct sampling from the conditional distribution of $Y \mid X$ is infeasible, and only a stream of i.i.d.\ observation pairs $\{(X^k, Y^k)\}_{k=0,1,2,\ldots}$ is available. In our approach, the conditional expectation is approximated within a prespecified parametric function class. We analyze a simultaneous learning-and-optimization algorithm that jointly estimates the conditional expectation and optimizes the outer objective, and establish that the method achieves a convergence rate of order $\mathcal{O}\big(1/\sqrt{N}\big)$, where $N$ denotes the number of observed pairs.
- Abstract(参考訳): 文脈変数 $X$ と従属変数 $Y$ の2つの確率変数を含む確率最適化問題を考察する。
目的は、条件付き期待値 $\mathbb{E}[f(X, Y,β) \mid X]$ に適用された非線形損失関数の期待値の最小化である。
我々は、X$の条件分布からの直接サンプリングが不可能であり、i.d.\ 観測対 $\{(X^k, Y^k)\}_{k=0,1,2,\ldots}$ のストリームのみが利用可能である、事実上重要な設定に焦点を当てる。
提案手法では, 条件付き期待値は, 予め指定されたパラメトリック関数クラス内で近似される。
我々は,条件付き予測を共同で推定し,その外的目的を最適化する同時学習最適化アルゴリズムを解析し,この手法が観測ペア数を表す$$$\mathcal{O}\big(1/\sqrt{N}\big)$の収束率を達成することを確かめる。
関連論文リスト
- Allocating Variance to Maximize Expectation [2.25491649634702]
ガウス確率変数の系列の上限を最大化するための効率的な近似アルゴリズムを設計する。
このような期待問題は、ユーティリティオークションから、定量的遺伝学の混合モデルを学ぶことまで、様々な応用で発生する。
論文 参考訳(メタデータ) (2025-02-25T18:59:46Z) - Revisiting Step-Size Assumptions in Stochastic Approximation [1.3654846342364308]
この仮定は、収束とより微細な結果には必要ないことが初めて示される。
標準アルゴリズムおよびPolyakとRuppertの平均化手法を用いて得られた推定値に対して収束率を求める。
数値実験の結果,乗法雑音とマルコフ記憶の組み合わせにより,$beta_theta$が大きくなる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-28T05:11:05Z) - $L^1$ Estimation: On the Optimality of Linear Estimators [64.76492306585168]
この研究は、条件中央値の線型性を誘導する$X$上の唯一の先行分布がガウス分布であることを示している。
特に、条件分布 $P_X|Y=y$ がすべての$y$に対して対称であるなら、$X$ はガウス分布に従う必要がある。
論文 参考訳(メタデータ) (2023-09-17T01:45:13Z) - Oblivious Stochastic Composite Optimization [47.48197617884748]
我々のアルゴリズムは問題のパラメータに関する事前の知識なしで収束することを示す。
3つのアルゴリズムは全て、実現可能な集合の直径、リプシッツ定数、あるいは目的関数の滑らかさについて事前の知識なしに機能する。
我々は,フレームワークを比較的大規模に拡張し,大規模半確定プログラム上での手法の効率性と堅牢性を実証する。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Statistical Inference of Constrained Stochastic Optimization via Sketched Sequential Quadratic Programming [53.63469275932989]
制約付き非線形最適化問題のオンライン統計的推測を考察する。
これらの問題を解決するために、逐次二次計画法(StoSQP)を適用する。
論文 参考訳(メタデータ) (2022-05-27T00:34:03Z) - Localization in 1D non-parametric latent space models from pairwise
affinities [6.982738885923206]
対の親和性から一次元トーラスにおける潜伏位置を推定する問題を考察する。
高確率でsqrtlog(n)/n$の順序の最大誤差で全ての潜伏位置を確実にローカライズする推定手順を導入する。
論文 参考訳(メタデータ) (2021-08-06T13:05:30Z) - Accelerating Optimization and Reinforcement Learning with
Quasi-Stochastic Approximation [2.294014185517203]
本稿では、収束理論を準確率近似に拡張することを目的とする。
強化学習のためのグラデーションフリー最適化とポリシー勾配アルゴリズムへの応用について説明する。
論文 参考訳(メタデータ) (2020-09-30T04:44:45Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。