論文の概要: A Principled Approach to Randomized Selection under Uncertainty
- arxiv url: http://arxiv.org/abs/2506.19083v1
- Date: Mon, 23 Jun 2025 19:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.36796
- Title: A Principled Approach to Randomized Selection under Uncertainty
- Title(参考訳): 不確実性下におけるランダム化選択の原理的アプローチ
- Authors: Alexander Goldberg, Giulia Fanti, Nihar B. Shah,
- Abstract要約: 本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
- 参考スコア(独自算出の注目度): 68.43987626137512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many decision-making processes involve evaluating and then selecting items; examples include scientific peer review, job hiring, school admissions, and investment decisions. The eventual selection is performed by applying rules or deliberations to the raw evaluations, and then deterministically selecting the items deemed to be the best. These domains feature error-prone evaluations and uncertainty about future outcomes, which undermine the reliability of such deterministic selection rules. As a result, selection mechanisms involving explicit randomization that incorporate the uncertainty are gaining traction in practice. However, current randomization approaches are ad hoc, and as we prove, inappropriate for their purported objectives. In this paper, we propose a principled framework for randomized decision-making based on interval estimates of the quality of each item. We introduce MERIT (Maximin Efficient Randomized Interval Top-k), an optimization-based method that maximizes the worst-case expected number of top candidates selected, under uncertainty represented by overlapping intervals (e.g., confidence intervals or min-max intervals). MERIT provides an optimal resource allocation scheme under an interpretable notion of robustness. We develop a polynomial-time algorithm to solve the optimization problem and demonstrate empirically that the method scales to over 10,000 items. We prove that MERIT satisfies desirable axiomatic properties not guaranteed by existing approaches. Finally, we empirically compare algorithms on synthetic peer review data. Our experiments demonstrate that MERIT matches the performance of existing algorithms in expected utility under fully probabilistic review data models used in previous work, while outperforming previous methods with respect to our novel worst-case formulation.
- Abstract(参考訳): 多くの意思決定プロセスには、科学的査定、就職、学校入学、投資決定など、アイテムの評価と選択が含まれる。
最終的な選択は、生の評価にルールや熟考を適用し、次に、最も良いと思われる項目を確定的に選択することによって行われる。
これらの領域は、これらの決定論的選択規則の信頼性を損なうような、エラーを起こしやすい評価と将来の結果の不確実性を特徴としている。
結果として、不確実性を含む明示的なランダム化を含む選択機構が、実際は勢いを増している。
しかし、現在のランダム化アプローチはアドホックであり、我々が証明したように、これらの目的に対して不適切である。
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
MERIT(Maximin Efficient Randomized Interval Top-k)は、選択された最上位候補の最悪の候補数を最大化する最適化手法である。
MERITは、ロバスト性という解釈可能な概念の下で最適なリソース割り当てスキームを提供する。
最適化問題を解く多項式時間アルゴリズムを開発し,提案手法が10,000項目以上まで拡張可能であることを実証的に示す。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
最後に、合成ピアレビューデータにおけるアルゴリズムを経験的に比較する。
実験の結果,MERITは既存アルゴリズムの性能に適合し,従来の手法よりも高い性能を示した。
関連論文リスト
- Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Online POMDP Planning with Anytime Deterministic Optimality Guarantees [9.444784653236157]
近似解と最適解の間の離散POMDPに対する決定論的関係を導出する。
我々の導出は、新しいアルゴリズムセットの道を提供し、既存のアルゴリズムにアタッチできることを示します。
論文 参考訳(メタデータ) (2023-10-03T04:40:38Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Bi-objective Ranking and Selection Using Stochastic Kriging [0.0]
両目的のランク付けと選択の問題について検討し,その2つの目的が不確実性をもって観測された。
そこで本研究では,競合する解に対して逐次サンプルを割り当てるバイーシアン双対象ランクと選別法を提案する。
実験結果から,提案手法は標準的なアロケーション手法よりも優れており,また,よく知られた最先端のアルゴリズムも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-05T23:51:07Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。