論文の概要: Ambiguous Online Learning
- arxiv url: http://arxiv.org/abs/2506.19810v1
- Date: Tue, 24 Jun 2025 17:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.746501
- Title: Ambiguous Online Learning
- Title(参考訳): 曖昧なオンライン学習
- Authors: Vanessa Kosoy,
- Abstract要約: 我々は「あいまいなオンライン学習」と呼ぶ新しいオンライン学習法を提案する。
この設定では、学習者は複数の予測ラベルを生成できる。
そのような「曖昧な予測」は、少なくとも1つのラベルが正しいときに正しいと考えられており、どのラベルも「予測上の誤り」ではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new variant of online learning that we call "ambiguous online learning". In this setting, the learner is allowed to produce multiple predicted labels. Such an "ambiguous prediction" is considered correct when at least one of the labels is correct, and none of the labels are "predictably wrong". The definition of "predictably wrong" comes from a hypothesis class in which hypotheses are also multi-valued. Thus, a prediction is "predictably wrong" if it's not allowed by the (unknown) true hypothesis. In particular, this setting is natural in the context of multivalued dynamical systems, recommendation algorithms and lossless compression. It is also strongly related to so-called "apple tasting". We show that in this setting, there is a trichotomy of mistake bounds: up to logarithmic factors, any hypothesis class has an optimal mistake bound of either Theta(1), Theta(sqrt(N)) or N.
- Abstract(参考訳): 我々は「あいまいなオンライン学習」と呼ぶ新しいオンライン学習法を提案する。
この設定では、学習者は複数の予測ラベルを生成できる。
このような「曖昧な予測」は、少なくとも1つのラベルが正しいときに正しいと考えられており、どのラベルも「予測上の誤り」ではない。
予測不可能」の定義は、仮説が多値である仮説クラスに由来する。
したがって、予測が(未知の)真の仮説によって許されていない場合、予測は「予測不可能」である。
特に、この設定は多値力学系、レコメンデーションアルゴリズム、ロスレス圧縮の文脈では自然である。
いわゆる「アップル・テイスティング(apple tasting)」とも強く関連している。
対数的因子によれば、任意の仮説クラスは Theta(1), Theta(sqrt(N)) または N のいずれかの最適誤り境界を持つ。
関連論文リスト
- Optimal Conformal Prediction under Epistemic Uncertainty [61.46247583794497]
コンフォーマル予測(CP)は不確実性を表すための一般的なフレームワークである。
条件付きカバレッジを保証する最小の予測セットを生成するBernoulli予測セット(BPS)を導入する。
1次予測を与えられた場合、BPSはよく知られた適応予測セット(APS)に還元する。
論文 参考訳(メタデータ) (2025-05-25T08:32:44Z) - Practical machine learning is learning on small samples [0.0]
統計的学習理論は、そのアプローチを正当化するために、無限に増加するトレーニングサンプルを想像する。
実際、学習には無限の時間や無限の一般集団は存在しない。
論文 参考訳(メタデータ) (2025-01-03T14:38:07Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Bandit-Feedback Online Multiclass Classification: Variants and Tradeoffs [32.29254118429081]
我々は,帯域幅フィードバックの下での最適誤りが,全情報ケースの最適誤りよりも少なくとも$O(k)$倍高いことを示す。
また、ランダム化学習者と決定論的学習者の間のギャップに対して、$tildeTheta(k)$のほぼ最適な境界を示す。
論文 参考訳(メタデータ) (2024-02-12T07:20:05Z) - When Is Inductive Inference Possible? [3.4991031406102238]
オンライン学習理論への新たなリンクを確立することにより,帰納的推論の厳密な特徴付けを行う。
帰納的推論が可能であることは、仮説クラスがオンライン学習可能なクラスの可算和である場合に限る。
私たちの主要な技術ツールは、新しい一様でないオンライン学習フレームワークです。
論文 参考訳(メタデータ) (2023-11-30T20:02:25Z) - It's an Alignment, Not a Trade-off: Revisiting Bias and Variance in Deep
Models [51.66015254740692]
深層学習に基づく分類モデルのアンサンブルでは, バイアスと分散がサンプルレベルで一致していることが示される。
我々はこの現象をキャリブレーションと神経崩壊という2つの理論的観点から研究する。
論文 参考訳(メタデータ) (2023-10-13T17:06:34Z) - Unified Uncertainty Calibration [43.733911707842005]
不確実性校正(U2C:emphunified uncertainty calibration)は、アレタリックと不確実性を組み合わせた総合的な枠組みである。
U2Cは、不確実性推定のクリーンな学習理論分析を可能にし、さまざまなImageNetベンチマークでリジェクションや分類よりも優れている。
論文 参考訳(メタデータ) (2023-10-02T13:42:36Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Online Multivalid Learning: Means, Moments, and Prediction Intervals [16.75129633574157]
本稿では,様々な意味で「多値」な文脈予測手法を提案する。
得られた見積もりは、単に限界ではなく、$ Y$ラベルのさまざまな統計を正しく予測します。
我々のアルゴリズムは逆選択の例を扱うので、任意の点予測法の残差の統計量を予測するのに等しく使用できる。
論文 参考訳(メタデータ) (2021-01-05T19:08:11Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。