論文の概要: Stochastic Gradient Descent with Strategic Querying
- arxiv url: http://arxiv.org/abs/2508.17144v1
- Date: Sat, 23 Aug 2025 21:03:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.365725
- Title: Stochastic Gradient Descent with Strategic Querying
- Title(参考訳): ストラテジッククエリーを用いた確率的グラディエントDescence
- Authors: Nanfei Jiang, Hoi-To Wai, Mahnoosh Alizadeh,
- Abstract要約: 我々はOracle Gradient Querying (OGQ)を紹介します。
OGQは、現実のシナリオでは非現実的な選択を行うために、すべてのユーザのグラデーションへのオラクルアクセスを前提としている。
本稿では,SGDよりも過渡状態性能がよい実用的なアルゴリズムであるStrategic Gradient Querying (SGQ)を提案する。
- 参考スコア(独自算出の注目度): 21.180062505744253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers a finite-sum optimization problem under first-order queries and investigates the benefits of strategic querying on stochastic gradient-based methods compared to uniform querying strategy. We first introduce Oracle Gradient Querying (OGQ), an idealized algorithm that selects one user's gradient yielding the largest possible expected improvement (EI) at each step. However, OGQ assumes oracle access to the gradients of all users to make such a selection, which is impractical in real-world scenarios. To address this limitation, we propose Strategic Gradient Querying (SGQ), a practical algorithm that has better transient-state performance than SGD while making only one query per iteration. For smooth objective functions satisfying the Polyak-Lojasiewicz condition, we show that under the assumption of EI heterogeneity, OGQ enhances transient-state performance and reduces steady-state variance, while SGQ improves transient-state performance over SGD. Our numerical experiments validate our theoretical findings.
- Abstract(参考訳): 本稿では,一階述語探索における有限サム最適化問題について考察し,一様問合せ方式と比較して確率的勾配法における戦略的問合せの利点について考察する。
まず、Oracle Gradient Querying (OGQ)を紹介します。
しかし、OGQは、現実のシナリオでは非現実的な選択を行うために、すべてのユーザのグラデーションへのオラクルアクセスを前提としている。
この制限に対処するため,SGDよりも1回に1回のクエリしか作成せず,過渡的な状態性能を有する実用的なアルゴリズムであるStrategic Gradient Querying (SGQ)を提案する。
Polyak-Lojasiewicz条件を満たす滑らかな目的関数に対して、EIの不均一性を仮定すると、OGQは過渡状態性能を高め、定常状態の分散を低減する一方、SGQはSGDよりも過渡状態性能を向上させる。
我々の数値実験は、我々の理論的な結果を検証する。
関連論文リスト
- Efficient Differentiable Approximation of Generalized Low-rank Regularization [64.73416824444328]
低ランク正規化(LRR)は様々な機械学習タスクに広く応用されている。
本稿では,LRRの効率的な微分可能近似を提案する。
論文 参考訳(メタデータ) (2025-05-21T11:49:17Z) - Optimizing Chain-of-Thought Reasoners via Gradient Variance Minimization in Rejection Sampling and RL [20.177871969184004]
チェーン・オブ・シント(CoT)推論は、モデルが中間的推論ステップを生成する必要がある潜在変数問題として形式化することができる。
反復的な報酬ランクの微調整のような以前のアプローチは、難易度と収束挙動の変動を考慮しない。
本稿では,計算予算制約下での勾配分散を最小限に抑えるために,プロンプト固有の動的サンプル割当戦略であるGVMRAFTを提案する。
論文 参考訳(メタデータ) (2025-05-05T06:26:00Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Stochastic Reweighted Gradient Descent [4.355567556995855]
SRG(stochastic reweighted gradient)と呼ばれる重要サンプリングに基づくアルゴリズムを提案する。
我々は、提案手法の時間とメモリオーバーヘッドに特に注意を払っています。
我々はこの発見を裏付ける実験結果を示す。
論文 参考訳(メタデータ) (2021-03-23T04:09:43Z) - A Retrospective Approximation Approach for Smooth Stochastic
Optimization [0.2867517731896504]
グラディエント(グラディエント、英: Gradient、SG)とは、最適化(SO)問題をスムーズ(ノンフィクション)な目標値で解くための補足的反復手法である。
論文 参考訳(メタデータ) (2021-03-07T16:29:36Z) - AsymptoticNG: A regularized natural gradient optimization algorithm with
look-ahead strategy [37.638447128733546]
自然勾配(ANG)とよばれるルックアヘッド戦略を持つ正規化自然勾配を示す。
ANGはNGとユークリッド勾配を動的にアセンブルし、NGの強度を使って新しい方向に沿ってパラメータを更新する。
検証実験により、ANGは2次速度でスムーズかつ安定に更新でき、より良い性能が得られることが示された。
論文 参考訳(メタデータ) (2020-12-24T03:03:10Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。