論文の概要: Rank-Induced PL Mirror Descent: A Rank-Faithful Second-Order Algorithm for Sleeping Experts
- arxiv url: http://arxiv.org/abs/2509.18138v1
- Date: Sun, 14 Sep 2025 18:16:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.409733
- Title: Rank-Induced PL Mirror Descent: A Rank-Faithful Second-Order Algorithm for Sleeping Experts
- Title(参考訳): Rank-induced PL Mirror Descent: Rank-Faithful Second-Order Algorithm for Sleeping Experts
- Authors: Tiantian Zhang,
- Abstract要約: 本稿では,新しいアルゴリズムであるemphRank-induced Plackett--Luce Mirror Descent (RIPLM)を紹介する。
RIPLMはEmphrank-induced Plackett--Luce(PL)パラメータ化で直接更新する。
これにより、アルゴリズムの再生分布は、各ラウンドにおけるランク誘導分布のクラス内に留まることが保証される。
- 参考スコア(独自算出の注目度): 2.975968266926905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new algorithm, \emph{Rank-Induced Plackett--Luce Mirror Descent (RIPLM)}, which leverages the structural equivalence between the \emph{rank benchmark} and the \emph{distributional benchmark} established in \citet{BergamOzcanHsu2022}. Unlike prior approaches that operate on expert identities, RIPLM updates directly in the \emph{rank-induced Plackett--Luce (PL)} parameterization. This ensures that the algorithm's played distributions remain within the class of rank-induced distributions at every round, preserving the equivalence with the rank benchmark. To our knowledge, RIPLM is the first algorithm that is both (i) \emph{rank-faithful} and (ii) \emph{variance-adaptive} in the sleeping experts setting.
- Abstract(参考訳): そこで我々は,新しいアルゴリズム, \emph{Rank-induced Plackett--Luce Mirror Descent (RIPLM)を導入し, \citet{BergamOzcanHsu2022} で確立された \emph{rank benchmark} と \emph{distributional benchmark} の構造的等価性を利用する。
専門家のアイデンティティを操作する以前のアプローチとは異なり、RIPLM は \emph{rank-induced Plackett--Luce (PL) パラメータ化を直接更新する。
これにより、アルゴリズムの再生分布が各ラウンドでランク誘導分布のクラスに留まることが保証され、ランクベンチマークと等価性を保持する。
我々の知る限り、RIPLMはどちらも最初のアルゴリズムである。
(i)------------------------------------------------------------------------------------------------- ---------------------------------------------------------------------------------------------------- ----------------------------------------------
(ii)睡眠専門家設定におけるemph{variance-adaptive}
関連論文リスト
- Accelerated Fully First-Order Methods for Bilevel and Minimax Optimization [5.269633789700637]
emphBilevel Optimization (BLO) における新しい一階法を提案する。
低レベル関数が典型的に強い凸性仮定を持つという仮定の下では、emphBilevel Approximation (textttPRAF$2$BA) が提案される。
また,低次関数が典型的に強い凸性仮定を欠いている場合,BLOにおける高次関数の定常点の探索についても検討する。
論文 参考訳(メタデータ) (2024-05-01T23:59:36Z) - RankFeat&RankWeight: Rank-1 Feature/Weight Removal for Out-of-distribution Detection [66.27699658243391]
textttRankFeatは、OOD検出のためのシンプルだが効果的なEmphposthocアプローチである。
textttRankWeight は emphpost hoc で、 rank-1 行列を一度だけ計算する必要がある。
textttRankFeatは、最先端のパフォーマンスを実現し、平均偽陽性率(FPR95)を17.90%削減する。
論文 参考訳(メタデータ) (2023-11-23T12:17:45Z) - Explicit Second-Order Min-Max Optimization Methods with Optimal Convergence Guarantee [86.05440220344755]
我々は,非制約のmin-max最適化問題のグローバルなサドル点を求めるために,不正確な正規化ニュートン型手法を提案し,解析する。
提案手法は有界集合内に留まるイテレートを生成し、その反復は制限関数の項で$O(epsilon-2/3)$内の$epsilon$-saddle点に収束することを示す。
論文 参考訳(メタデータ) (2022-10-23T21:24:37Z) - General Univariate Estimation-of-Distribution Algorithms [9.853329403413701]
私たちの一般的なモデルには、既存のモデルよりも効率的なEDAが含まれています。
既存のアルゴリズムの統一的な記述は、これらを統一的な分析を可能にし、遺伝的ドリフトの分析を提供することでこれを実証する。
私たちの一般的なモデルには、既存のモデルよりも効率的で、OneMaxとLeadingOnesベンチマークで示されているような、見つけにくいEDAも含まれています。
論文 参考訳(メタデータ) (2022-06-22T16:32:04Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - A gradient estimator via L1-randomization for online zero-order
optimization with two point feedback [93.57603470949266]
2つの関数評価とランダム化に基づく新しい勾配推定器を提案する。
ゼロ次オラクルの雑音に対する仮定は,ノイズのキャンセルと逆方向雑音の2種類について考察する。
我々は、問題の全てのパラメータに適応する、いつでも完全にデータ駆動のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-05-27T11:23:57Z) - On Mixing Times of Metropolized Algorithm With Optimization Step (MAO) :
A New Framework [4.984601297028258]
我々は$mathbbRd$でサポートされている細い尾を持つ分布のクラスからのサンプリングを検討する。
我々のアルゴリズムは、メトロポリス調整ランゲヴィンアルゴリズム(MALA)が収束しない分布や理論的保証が欠如している分布からサンプリングすることができる。
論文 参考訳(メタデータ) (2021-12-01T15:32:01Z) - Probabilistic semi-nonnegative matrix factorization: a Skellam-based
framework [0.7310043452300736]
我々は,Skellam-SNMFと呼ばれる半負行列分解(SNMF)に対処する新しい確率モデルを提案する。
先行成分,スケラム分布型隠れ変数,観測データからなる階層的生成モデルである。
2つの推論アルゴリズムが導出される: 最大エンファ後推定のための期待最大化(EM)アルゴリズムと、完全ベイズ推定のためのヴァリベイズEM(VBEM)アルゴリズム。
論文 参考訳(メタデータ) (2021-07-07T15:56:22Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - TopRank+: A Refinement of TopRank Algorithm [0.0]
トポロジカルソートに基づく新しいオンライン学習アルゴリズムが提案された。
本研究では、ある暗黙関数の混合と拡張の手法を用いて、不等式に対してより厳密で反復的なログのような境界を与える。
論文 参考訳(メタデータ) (2020-01-21T15:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。