論文の概要: The Empirical Mean is Minimax Optimal for Local Glivenko-Cantelli
- arxiv url: http://arxiv.org/abs/2410.02835v2
- Date: Wed, 28 May 2025 19:06:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.305727
- Title: The Empirical Mean is Minimax Optimal for Local Glivenko-Cantelli
- Title(参考訳): 局所Glivenko-Cantelliにおける経験的平均はminimax最適である
- Authors: Doron Cohen, Aryeh Kontorovich, Roi Weiss,
- Abstract要約: 実験平均推定器(EME)の均一収束速度を研究対象とする,最近導入された局所Glivenko-Cantelli設定について再検討する。
本研究では, 任意の推定器がEMEだけでなく, 任意の推定器を許すような設定の一般化について検討する。
- 参考スコア(独自算出の注目度): 18.062516951293315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit the recently introduced Local Glivenko-Cantelli setting, which studies distribution-dependent uniform convergence rates of the Empirical Mean Estimator (EME). In this work, we investigate generalizations of this setting where arbitrary estimators are allowed rather than just the EME. Can a strictly larger class of measures be learned? Can better risk decay rates be obtained? We provide exhaustive answers to these questions, which are both negative, provided the learner is barred from exploiting some infinite-dimensional pathologies. On the other hand, allowing such exploits does lead to a strictly larger class of learnable measures.
- Abstract(参考訳): 実験平均推定器(EME)の分布依存性の一様収束率について検討した。
本研究では, 任意の推定器がEMEだけでなく, 任意の推定器を許すような設定の一般化について検討する。
厳格に大きな尺度が学べるだろうか?
よりリスクの高い崩壊率が得られるか?
学習者が無限次元の病理を悪用することを禁じられた場合、これら2つの質問に対して徹底的な回答を提供する。
一方で、このようなエクスプロイトを可能にすることは、学習可能な尺度の厳格なクラスに繋がる。
関連論文リスト
- Decision from Suboptimal Classifiers: Excess Risk Pre- and Post-Calibration [52.70324949884702]
バッチ二分決定における近似的後続確率を用いた余剰リスクの定量化を行う。
我々は、再校正のみが後悔のほとんどに対処する体制と、後悔が集団的損失に支配される体制を識別する。
NLP実験では、これらの量によって、より高度なポストトレーニングの期待値が運用コストに値するかどうかが分かる。
論文 参考訳(メタデータ) (2025-03-23T10:52:36Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Maximum Likelihood Estimation is All You Need for Well-Specified
Covariate Shift [34.414261291690856]
現代の機械学習システムの鍵となる課題は、アウト・オブ・ディストリビューション(OOD)の一般化を達成することである。
音源データを用いた古典的最大等化推定(MLE)が極小最適化を実現することを示す。
3つの具体例にインスタンス化することで、フレームワークの幅広い適用性を説明します。
論文 参考訳(メタデータ) (2023-11-27T16:06:48Z) - Deep Metric Learning with Chance Constraints [6.965621436414179]
ディープ・メトリック・ラーニング (DML) は, 組込み空間における対方向/クラス間近接違反の期待損失を実証することを目的としている。
我々は,プロキシベースのDMLの最小化は一定の確率制約を満たすことを示し,最悪の場合の一般化に基づく手法は,クラスプロキシの周辺にある最小の球の半径が対応するクラスサンプルの領域全体をカバーすることで特徴付けられることを示した。
論文 参考訳(メタデータ) (2022-09-19T14:50:48Z) - What is a Good Metric to Study Generalization of Minimax Learners? [24.577243536475233]
Minimax最適化は多くの機械学習(ML)問題のバックボーンとして機能している。
データでトレーニングされたソリューションがメトリックテストでどのように機能するかは、比較的調査されていない。
本稿では,これらの問題に対処するため,新しい計量一般化ミニマックス学習者を提案する。
論文 参考訳(メタデータ) (2022-06-09T13:39:06Z) - ELM: Embedding and Logit Margins for Long-Tail Learning [70.19006872113862]
長期学習はスキューラベル分布下での学習の問題である。
本稿では,ロジット空間にマージンを強制するための統一アプローチであるEmbedding and Logit Margins(ELM)を提案する。
The ELM method are shown to be well empirically, and result to tight more tail class embeddeds。
論文 参考訳(メタデータ) (2022-04-27T21:53:50Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Minimax Regret Optimization for Robust Machine Learning under
Distribution Shift [38.30154154957721]
未知のテスト分布下で学習モデルを評価した場合の学習シナリオを考察する。
DROの定式化は分布シフト時の一様に小さな後悔を保証しないことを示す。
ミニマックス回帰最適化 (Minimax Regret Optimization, MRO) という代替手法を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:17:22Z) - Minimum Wasserstein Distance Estimator under Finite Location-scale
Mixtures [17.662433196563473]
最小ワッサーシュタイン距離推定器(MWDE)は、有限な位置スケール混合条件下での数値解を導出する。
本研究は,MWDEがMLEのペナルティ化バージョンに対してある程度の効率損失を被っていることを示す。
非正規な有限な位置-スケールの混合であっても、確率に基づく学習戦略の一般的な優位性を再確認する。
論文 参考訳(メタデータ) (2021-07-03T02:06:49Z) - An Exponential Lower Bound for Linearly-Realizable MDPs with Constant
Suboptimality Gap [66.75488143823337]
また, 指数的標本複雑度は, 一定の準最適ギャップを仮定しても, 未だに保持していることを示した。
おそらく驚くことに、これはオンラインrl設定と生成モデル設定の指数関数的な分離を意味する。
論文 参考訳(メタデータ) (2021-03-23T17:05:54Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。