論文の概要: Greedy Selection under Independent Increments: A Toy Model Analysis
- arxiv url: http://arxiv.org/abs/2506.17941v1
- Date: Sun, 22 Jun 2025 08:21:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.661108
- Title: Greedy Selection under Independent Increments: A Toy Model Analysis
- Title(参考訳): インディペンデントインクリメント下のグリーディ選択:トイモデル分析
- Authors: Huitao Yang,
- Abstract要約: 独立増分を伴うN-d-離散時間過程に対する反復選択問題について検討する。
最終値プロセスを選択するための最適戦略は,各段階で最大グリーディ選択を適用することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study an iterative selection problem over N i.i.d. discrete-time stochastic processes with independent increments. At each stage, a fixed number of processes are retained based on their observed values. Under this simple model, we prove that the optimal strategy for selecting the final maximum-value process is to apply greedy selection at each stage. While the result relies on strong independence assumptions, it offers a clean justification for greedy heuristics in multi-stage elimination settings and may serve as a toy example for understanding related algorithms in high-dimensional applications.
- Abstract(参考訳): 独立増分を伴う離散時間確率過程の反復選択問題について検討する。
各段階では、観測値に基づいて一定数のプロセスが保持される。
この単純なモデルの下では、最終最大値プロセスを選択するための最適戦略は、各段階で欲求選択を適用することである。
その結果は強い独立性の仮定に依存するが、多段階除去設定における欲求的ヒューリスティックスの清浄な正当性を提供し、高次元アプリケーションにおける関連するアルゴリズムを理解するためのおもちゃの例として機能する。
関連論文リスト
- Scalable Best-of-N Selection for Large Language Models via Self-Certainty [65.31658824274894]
Best-of-N選択は、大規模言語モデルの推論性能を改善するための重要なテクニックである。
本稿では,外部報酬モデルを必要とすることなく,応答品質を推定する新規かつ効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - Option-ID Based Elimination For Multiple Choice Questions [12.30777266124562]
複数選択質問(MCQ)は、大規模言語モデル(LLM)を評価するために人気があり重要なタスクである。
本稿では,新しいオプションIDベースのPoE(textPoE_textID$)を提案する。
論文 参考訳(メタデータ) (2025-01-25T11:06:37Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Learning to Select and Rank from Choice-Based Feedback: A Simple Nested Approach [10.293894471295205]
本研究では、動的アソートによる選択に基づくフィードバックから学習する際のランク付けと選択の問題について検討する。
両学習目標に対して,新しい,シンプルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-13T05:05:30Z) - Finding Counterfactually Optimal Action Sequences in Continuous State
Spaces [22.84932480886562]
有限水平マルコフ決定過程を用いた離散的な行動と連続状態の列を記述する。
次に,環境のダイナミクスの連続性に基づく探索手法を開発する。
提案手法は実際は非常に効率的であり, 逐次意思決定タスクに興味深い洞察を与える可能性がある。
論文 参考訳(メタデータ) (2023-06-06T18:00:29Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Probabilistic Bilevel Coreset Selection [24.874967723659022]
本稿では,各トレーニングサンプルの確率的重みを学習することにより,コアセット選択の連続確率的2レベル定式化を提案する。
暗黙的な微分の問題を伴わずに、偏りのない政策勾配を経由し、二段階最適化問題に対する効率的な解法を開発する。
論文 参考訳(メタデータ) (2023-01-24T09:37:00Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。