論文の概要: Contextual Learning for Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2505.16829v1
- Date: Thu, 22 May 2025 16:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.428148
- Title: Contextual Learning for Stochastic Optimization
- Title(参考訳): 確率最適化のための文脈学習
- Authors: Anna Heuser, Thomas Kesselheim,
- Abstract要約: 最適化によってモチベーションを得て,文脈値分布のサンプルから学習する問題を導入する。
各サンプルは、コンテキスト$x$と、対応する実値分布$D_x$から引き出されたランダム変数からなる。
- 参考スコア(独自算出の注目度): 1.0819408603463425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by stochastic optimization, we introduce the problem of learning from samples of contextual value distributions. A contextual value distribution can be understood as a family of real-valued distributions, where each sample consists of a context $x$ and a random variable drawn from the corresponding real-valued distribution $D_x$. By minimizing a convex surrogate loss, we learn an empirical distribution $D'_x$ for each context, ensuring a small L\'evy distance to $D_x$. We apply this result to obtain the sample complexity bounds for the learning of an $\epsilon$-optimal policy for stochastic optimization problems defined on an unknown contextual value distribution. The sample complexity is shown to be polynomial for the general case of strongly monotone and stable optimization problems, including Single-item Revenue Maximization, Pandora's Box and Optimal Stopping.
- Abstract(参考訳): 確率的最適化により、文脈値分布のサンプルから学習する問題を導入する。
各サンプルは、コンテキスト$x$と、対応する実値分布$D_x$から引き出されたランダム変数からなる。
凸代理損失を最小化することにより、各文脈に対する経験的分布$D'_x$を学習し、小さなL'evy距離を$D_x$とする。
この結果を用いて、未知の文脈値分布に定義された確率的最適化問題に対する$\epsilon$-optimal Policyの学習のためのサンプル複雑性境界を求める。
サンプルの複雑さは、シングルテム収益最大化、Pandoraのボックス、最適停止を含む、強い単調で安定した最適化問題の一般的な場合の多項式であることが示されている。
関連論文リスト
- Complexity Analysis of Normalizing Constant Estimation: from Jarzynski Equality to Annealed Importance Sampling and beyond [28.931489333515618]
非正規化確率密度 $piproptomathrme-V$ が与えられたとき、正規化定数 $Z=int_mathbbRdmathrme-V(x)mathrmdx$ または自由エネルギー $F=-log Z$ はベイズ統計学、統計力学、機械学習において重要な問題である。
本稿では,逆拡散型サンプリング器に基づく新しい正規化定数推定アルゴリズムを提案し,その複雑さを解析するための枠組みを確立する。
論文 参考訳(メタデータ) (2025-02-07T00:05:28Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Distributionally Robust Prescriptive Analytics with Wasserstein Distance [10.475438374386886]
本稿では、ワッサーシュタイン曖昧性集合の下での新しい分布的ロバストなアプローチを提案する。
固有分布は、ワッサーシュタイン距離の下での実際の条件分布に収束することを示す。
論文 参考訳(メタデータ) (2021-06-10T13:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。