論文の概要: Adaptive Experimentation at Scale: A Computational Framework for
Flexible Batches
- arxiv url: http://arxiv.org/abs/2303.11582v4
- Date: Mon, 14 Aug 2023 23:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 16:57:13.920841
- Title: Adaptive Experimentation at Scale: A Computational Framework for
Flexible Batches
- Title(参考訳): Adaptive Experimentation at Scale: 柔軟なバッチのための計算フレームワーク
- Authors: Ethan Che, Hongseok Namkoong
- Abstract要約: 結果がバッチで測定される少数の実測を含む実例によって動機付けられ,適応駆動型実験フレームワークを開発した。
我々の主な観察は、統計的推論において普遍的な正規近似は適応アルゴリズムの設計を導くことができることである。
- 参考スコア(独自算出の注目度): 7.390918770007728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard bandit algorithms that assume continual reallocation of measurement
effort are challenging to implement due to delayed feedback and
infrastructural/organizational difficulties. Motivated by practical instances
involving a handful of reallocation epochs in which outcomes are measured in
batches, we develop a computation-driven adaptive experimentation framework
that can flexibly handle batching. Our main observation is that normal
approximations, which are universal in statistical inference, can also guide
the design of adaptive algorithms. By deriving a Gaussian sequential
experiment, we formulate a dynamic program that can leverage prior information
on average rewards. Instead of the typical theory-driven paradigm, we leverage
computational tools and empirical benchmarking for algorithm development. In
particular, our empirical analysis highlights a simple yet effective algorithm,
Residual Horizon Optimization, which iteratively solves a planning problem
using stochastic gradient descent. Our approach significantly improves
statistical power over standard methods, even when compared to Bayesian bandit
algorithms (e.g., Thompson sampling) that require full distributional knowledge
of individual rewards. Overall, we expand the scope of adaptive experimentation
to settings that are difficult for standard methods, involving limited
adaptivity, low signal-to-noise ratio, and unknown reward distributions.
- Abstract(参考訳): 計測努力の継続的な再配置を仮定する標準的なバンディットアルゴリズムは、遅延したフィードバックとインフラ/組織的困難のために実装が困難である。
結果がバッチで測定される少数の再配置時代の実例に動機づけられて,バッチ処理を柔軟に処理可能な計算駆動型適応実験フレームワークを開発した。
我々の主な観察は、統計的推論において普遍的な正規近似は適応アルゴリズムの設計を導くことができることである。
ガウスの逐次実験を導出することにより,先行情報を平均報酬に活用できる動的プログラムを定式化する。
一般的な理論駆動のパラダイムの代わりに、計算ツールと経験的ベンチマークをアルゴリズム開発に活用する。
特に,経験的解析では,確率的勾配降下を用いて計画問題を反復的に解く,単純かつ効果的なアルゴリズムである残留地平線最適化を強調する。
我々の手法は、個々の報酬の完全な分布的知識を必要とするベイズ帯域幅アルゴリズム(例えばトンプソンサンプリング)と比較しても、標準手法よりも統計的パワーを著しく向上させる。
全体として,適応性,信号対雑音比の低さ,未知報酬分布など,標準手法では難しい設定に適応実験の範囲を広げる。
関連論文リスト
- Optimization-Driven Adaptive Experimentation [7.948144726705323]
実世界の実験には、バッチで遅延したフィードバック、非定常性、複数の目的と制約、そして(時には)パーソナライゼーションが含まれる。
これらの課題にプロブレム単位で対処するための適応的手法の調整は不可能であり、静的設計はデファクトスタンダードのままである。
本稿では,多種多様な目的,制約,統計的手順を柔軟に組み込む数学的プログラミングの定式化について述べる。
論文 参考訳(メタデータ) (2024-08-08T16:29:09Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Adaptive Importance Sampling for Finite-Sum Optimization and Sampling
with Decreasing Step-Sizes [4.355567556995855]
ステップサイズを小さくした有限サム最適化とサンプリングのための適応的重要度サンプリングのための簡易かつ効率的なアルゴリズムであるavareを提案する。
標準的な技術的条件下では、$mathcalO(T2/3)$と$mathcalO(T5/6)$の動的後悔をそれぞれ、$mathcalO(T5/6)$のステップサイズで実行するときに達成している。
論文 参考訳(メタデータ) (2021-03-23T00:28:15Z) - Adaptive Sampling for Minimax Fair Classification [40.936345085421955]
最適化の原理に基づく適応型サンプリングアルゴリズムを提案し,その性能に関する理論的境界を導出する。
特定の問題のクラスに対してアルゴリズム独立なローバウンドを導出することにより,適応スキームによる性能は一般に改善できないことを示した。
論文 参考訳(メタデータ) (2021-03-01T04:58:27Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。