論文の概要: Practical Policy Optimization with Personalized Experimentation
- arxiv url: http://arxiv.org/abs/2303.17648v1
- Date: Thu, 30 Mar 2023 18:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 16:14:19.997246
- Title: Practical Policy Optimization with Personalized Experimentation
- Title(参考訳): パーソナライズ実験による実践的政策最適化
- Authors: Mia Garrard, Hanson Wang, Ben Letham, Shaun Singh, Abbas Kazerouni,
Sarah Tan, Zehui Wang, Yin Huang, Yichun Hu, Chad Zhou, Norm Zhou, Eytan
Bakshy
- Abstract要約: ユーザレベルでの治療グループ割り当てを最適化するパーソナライズされた実験フレームワークを提案する。
実際に成功したことが証明され、オープンソースソフトウェアを使って簡単に実装できるエンドツーエンドワークフローについて説明する。
- 参考スコア(独自算出の注目度): 7.928781593773402
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many organizations measure treatment effects via an experimentation platform
to evaluate the casual effect of product variations prior to full-scale
deployment. However, standard experimentation platforms do not perform
optimally for end user populations that exhibit heterogeneous treatment effects
(HTEs). Here we present a personalized experimentation framework, Personalized
Experiments (PEX), which optimizes treatment group assignment at the user level
via HTE modeling and sequential decision policy optimization to optimize
multiple short-term and long-term outcomes simultaneously. We describe an
end-to-end workflow that has proven to be successful in practice and can be
readily implemented using open-source software.
- Abstract(参考訳): 多くの組織は実験プラットフォームを通じて治療効果を測定し、実際の展開前に製品のバリエーションのカジュアルな効果を評価する。
しかし、標準実験プラットフォームは、ヘテロジニアス処理効果(HTE)を示すエンドユーザーに対して最適に機能しない。
本稿では、HTEモデリングとシーケンシャル決定ポリシー最適化を通じて、ユーザレベルでの治療グループ割り当てを最適化し、複数の短期および長期の成果を同時に最適化するパーソナライズド実験フレームワークPEXを提案する。
実際に成功したことが証明され、オープンソースソフトウェアを使って簡単に実装できるエンドツーエンドワークフローについて説明する。
関連論文リスト
- AIPO: Improving Training Objective for Iterative Preference Optimization [34.24211649396053]
合成データを用いた反復選好最適化について検討する。
我々は,反復選好最適化,すなわち合意対応反復選好最適化(AIPO)のための学習目標を提案する。
論文 参考訳(メタデータ) (2024-09-13T14:03:49Z) - Adaptive Experimentation When You Can't Experiment [55.86593195947978]
本稿では,Emphcon founded the pure exploration transductive linear bandit (textttCPET-LB) problem。
オンラインサービスは、ユーザーを特定の治療にインセンティブを与える、適切にランダム化された励ましを利用することができる。
論文 参考訳(メタデータ) (2024-06-15T20:54:48Z) - Enhanced Bayesian Optimization via Preferential Modeling of Abstract
Properties [49.351577714596544]
本研究では,非測定抽象特性に関する専門家の嗜好を代理モデルに組み込むための,人間とAIの協調型ベイズフレームワークを提案する。
優先判断において、誤った/誤解を招く専門家バイアスを処理できる効率的な戦略を提供する。
論文 参考訳(メタデータ) (2024-02-27T09:23:13Z) - Optimizing Adaptive Experiments: A Unified Approach to Regret Minimization and Best-Arm Identification [9.030753181146176]
実験内性能と実験後の成果を同時に考慮した統一モデルを提案する。
実験期間の大幅な短縮は、実験内および実験後の後悔の両方に最小限の影響を伴って達成できることが示されている。
論文 参考訳(メタデータ) (2024-02-16T11:27:48Z) - Adaptive Instrument Design for Indirect Experiments [48.815194906471405]
RCTとは異なり、間接的な実験は条件付き機器変数を利用して治療効果を推定する。
本稿では,データ収集ポリシーを適応的に設計することで,間接実験におけるサンプル効率の向上に向けた最初のステップについて述べる。
我々の主な貢献は、影響関数を利用して最適なデータ収集ポリシーを探索する実用的な計算手順である。
論文 参考訳(メタデータ) (2023-12-05T02:38:04Z) - Choosing a Proxy Metric from Past Experiments [54.338884612982405]
多くのランダム化実験では、長期的な計量の処理効果は測定が困難または不可能であることが多い。
一般的な方法は、いくつかの短期的プロキシメトリクスを計測して、長期的メトリックを綿密に追跡することである。
ランダム化実験の同種集団において最適なプロキシメトリックを定義し構築するための新しい統計フレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-14T17:43:02Z) - Adaptive Learning of the Optimal Batch Size of SGD [52.50880550357175]
本稿では,その繰り返しを通じて最適なバッチサイズを適応的に学習し,凸度と滑らかな関数を求める手法を提案する。
実験では、合成データと実データを用いて、ほぼ最適な振る舞いを示す。
我々は,本手法を分散実装に適したサンプリングを含む,文献上考慮されていないいくつかの新しいバッチ戦略に一般化する。
論文 参考訳(メタデータ) (2020-05-03T14:28:32Z) - Incorporating Expert Prior Knowledge into Experimental Design via
Posterior Sampling [58.56638141701966]
実験者は、グローバルな最適な場所に関する知識を得ることができる。
グローバル最適化に関する専門家の事前知識をベイズ最適化に組み込む方法は不明である。
効率の良いベイズ最適化手法は、大域的最適の後方分布の後方サンプリングによって提案されている。
論文 参考訳(メタデータ) (2020-02-26T01:57:36Z) - Optimal Experimental Design for Staggered Rollouts [11.187415608299075]
本研究は, 治療開始時刻が単位によって異なる複数時間にわたって, 一連の単位に対して実施した実験の設計と解析について検討する。
本稿では,設計段階と治療効果を推定する段階の課題に対処するアルゴリズムとして,精度誘導適応実験(PGAE)を提案する。
論文 参考訳(メタデータ) (2019-11-09T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。