論文の概要: Partial Feedback Online Learning
- arxiv url: http://arxiv.org/abs/2601.21462v2
- Date: Thu, 05 Feb 2026 02:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.802854
- Title: Partial Feedback Online Learning
- Title(参考訳): オンライン学習の部分的フィードバック
- Authors: Shihao Shao, Cong Fang, Zhouchen Lin, Dacheng Tao,
- Abstract要約: 我々は、偏見フィードバックオンライン学習と呼ばれる新しい学習プロトコルについて研究する。
各インスタンスは許容できるラベルのセットを許可するが、学習者は1ラウンドごとに許容できるラベルを1つだけ観察する。
- 参考スコア(独自算出の注目度): 88.27143767009376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a new learning protocol, termed partial-feedback online learning, where each instance admits a set of acceptable labels, but the learner observes only one acceptable label per round. We highlight that, while classical version space is widely used for online learnability, it does not directly extend to this setting. We address this obstacle by introducing a collection version space, which maintains sets of hypotheses rather than individual hypotheses. Using this tool, we obtain a tight characterization of learnability in the set-realizable regime. In particular, we define the Partial-Feedback Littlestone dimension (PFLdim) and the Partial-Feedback Measure Shattering dimension (PMSdim), and show that they tightly characterize the minimax regret for deterministic and randomized learners, respectively. We further identify a nested inclusion condition under which deterministic and randomized learnability coincide, resolving an open question of Raman et al. (2024b). Finally, given a hypothesis space H, we show that beyond set realizability, the minimax regret can be linear even when |H|=2, highlighting a barrier beyond set realizability.
- Abstract(参考訳): 本研究では,学習者が許容するラベルのセットを各インスタンスに付与する部分フィードバックオンライン学習と呼ばれる新しい学習プロトコルについて検討するが,学習者は1ラウンドごとに許容できるラベルを1つだけ観察する。
古典的なバージョン空間はオンライン学習に広く利用されているが、直接この設定に拡張されていない点を強調した。
個々の仮説よりも仮説の集合を保守するコレクションバージョン空間を導入することで、この障害に対処する。
このツールを用いて,設定可能システムにおける学習可能性の厳密な評価を得る。
特に,部分フィードバックリトルストーン次元 (PFLdim) と部分フィードバック尺度シェータリング次元 (PMSdim) を定義し,決定論的およびランダムな学習者に対して,それぞれミニマックス後悔を強く特徴付けることを示す。
さらに,決定論的かつランダムな学習性が一致するネスト包含条件を特定し,Raman et al (2024b) の解答を行う。
最後に、仮説空間 H が与えられたとき、集合実現可能性を超えると、ミニマックス後悔は |H|=2 であっても線型となり、集合実現可能性を超えた障壁を浮き彫りにする。
関連論文リスト
- Characterizing Online and Private Learnability under Distributional Constraints via Generalized Smoothness [63.833913892018536]
本研究では、固定されたファミリー$U$からデータ生成分布を適応的に選択できる分布敵の下でのシーケンシャルな意思決定について検討する。
一般化滑らか性(Generalized smoothness)という概念の観点で学習可能性を認めるファミリー$U$のほぼ完全な特徴付けを提供する。
一般化された滑らかさは,分布制約下での個人学習性も特徴付けることを示す。
論文 参考訳(メタデータ) (2026-02-24T06:15:59Z) - Robust Online Learning [0.0]
本研究では,分類器が摂動入力を受けるような頑健な分類器を学習する問題について検討する。
仮説クラスの実現可能性と学習性について考察する。
実現可能な設定における誤り境界と、不可知的な設定における後悔境界を制御していることを示す。
論文 参考訳(メタデータ) (2026-02-06T15:30:52Z) - Proper Learnability and the Role of Unlabeled Data [10.168670899305232]
適切な学習可能性が論理的に決定不可能な問題、すなわちZFC公理に依存しない問題が存在することを示す。
そこで本研究では,PACモデルにおいて,適切な学習可能性の特性を損なう不確実性に関するすべての結果を示す。
論文 参考訳(メタデータ) (2025-02-14T18:41:53Z) - Probably Approximately Precision and Recall Learning [60.00180898830079]
機械学習における重要な課題は、一方的なフィードバックの頻度である。
本稿では,確率的近似(PAC)フレームワークを導入し,各入力をラベルの集合にマッピングする仮説を定めている。
我々は、正のデータのみから学習する新しいアルゴリズムを開発し、実現可能な場合において最適なサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Model-based RL as a Minimalist Approach to Horizon-Free and Second-Order Bounds [59.875550175217874]
本稿では,オンラインとオフラインのRL設定において,モデルベース強化学習方式が強い後悔とサンプル境界を実現することを示す。
我々のアルゴリズムは単純で、かなり標準的であり、実際にRLの文献で広く研究されている。
論文 参考訳(メタデータ) (2024-08-16T19:52:53Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - A Combinatorial Characterization of Supervised Online Learnability [20.291598040396302]
本稿では,任意だが有界な損失関数に対する仮説クラスのオンライン学習可能性について検討する。
連続最小次元と呼ばれる新しいスケール感性次元を与え、オンライン学習可能性の厳密な定量的評価を与えることを示す。
論文 参考訳(メタデータ) (2023-07-07T20:11:07Z) - Online Learning with Set-Valued Feedback [18.054632903107546]
学習者は1つのラベルを予測するが、フィードバックとしてラベルのテキストセットを受け取る。
単一ラベルフィードバックによるオンラインマルチクラス学習とは異なり、決定論的かつランダムなオンライン学習は、実現可能な設定においてもテキストと同等であることを示す。
論文 参考訳(メタデータ) (2023-06-09T20:43:19Z) - Open-Set Likelihood Maximization for Few-Shot Learning [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題、すなわちいくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類する問題に取り組む。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既存のトランスダクティブ手法はオープンセットのシナリオではうまく動作しないという観測により,最大極大原理の一般化を提案する。
論文 参考訳(メタデータ) (2023-01-20T01:56:19Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。