論文の概要: Online Learning with Set-Valued Feedback
- arxiv url: http://arxiv.org/abs/2306.06247v3
- Date: Sun, 19 Nov 2023 22:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 19:12:34.974581
- Title: Online Learning with Set-Valued Feedback
- Title(参考訳): 集合価値フィードバックによるオンライン学習
- Authors: Vinod Raman, Unique Subedi, Ambuj Tewari
- Abstract要約: 学習者は1つのラベルを予測するが、フィードバックとしてラベルのテキストセットを受け取る。
このモデルでは、学習者は、明らかにされた集合に含まれるラベルを出力しないようペナル化される。
単一ラベルフィードバックによるオンラインマルチクラス学習とは異なり、決定論的かつランダムなオンライン学習は、実現可能な環境ではテキストと同等であることを示す。
- 参考スコア(独自算出の注目度): 20.291598040396302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a variant of online multiclass classification where the learner
predicts a single label but receives a \textit{set of labels} as feedback. In
this model, the learner is penalized for not outputting a label contained in
the revealed set. We show that unlike online multiclass learning with
single-label feedback, deterministic and randomized online learnability are
\textit{not equivalent} in the realizable setting under set-valued feedback. In
addition, we show that deterministic and randomized realizable learnability are
equivalent if the Helly number of the collection of sets that can be revealed
as feedback is finite. In light of this separation, we give two new
combinatorial dimensions, named the Set Littlestone and Measure Shattering
dimension, whose finiteness characterizes deterministic and randomized
realizable learnability respectively. Additionally, these dimensions lower- and
upper bound the deterministic and randomized minimax regret in the realizable
setting. Going beyond the realizable setting, we prove that the Measure
shattering dimension continues to characterize learnability and quantify
minimax regret in the agnostic setting. Finally, we use our results to
establish bounds on the minimax regret for three practical learning settings:
online multilabel ranking, online multilabel classification, and real-valued
prediction with interval-valued response.
- Abstract(参考訳): 学習者が1つのラベルを予測するが、フィードバックとして \textit{set of labels} を受け取るオンラインマルチクラス分類の変種を調査した。
このモデルでは、明らかにされた集合に含まれるラベルを出力しないために学習者がペナルティを課される。
単一ラベルフィードバックによるオンラインマルチクラス学習とは異なり、決定論的かつランダム化されたオンライン学習能力は、集合的フィードバックの下で実現可能な設定において \textit{not equivalent} である。
さらに、決定論的かつランダムな実現可能学習性は、フィードバックとして明らかにできる集合の集合のヘリー数が有限であれば同値であることを示す。
この分離を考慮に入れ、我々は2つの新しい組合せ次元、すなわち集合リトルストーンと測度シェータリングの次元を与え、その有限性はそれぞれ決定論的およびランダムに実現可能な可学習性を特徴づける。
さらに、これらの次元は、決定論的でランダム化されたミニマックスの後悔を、実現可能な設定で下界と上界に制限する。
実現可能な設定を超えて、測定値の破砕次元が学習性を特徴づけ続け、不可知的な設定におけるミニマックス後悔を定量化する。
最後に,オンラインマルチラベルランキング,オンラインマルチラベル分類,インターバル値応答による実数値予測という3つの実践的学習環境において,ミニマックス後悔の限界を確立するために実験結果を用いた。
関連論文リスト
- The Selected-completely-at-random Complementary Label is a Practical
Weak Supervision for Multi-class Classification [71.42360409393201]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫した手法を提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Robust Online Classification: From Estimation to Denoising [16.336539657286266]
ノイズラベルの存在下でのオンライン分類について検討する。
本研究では, 幅広い自然雑音カーネル, 逆選択された特徴, 有限クラスラベリング関数に対して, ミニマックスリスクは時間的地平線に依存しない上界化可能であることを示す。
論文 参考訳(メタデータ) (2023-09-04T16:17:39Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Loss Function Entropy Regularization for Diverse Decision Boundaries [0.0]
損失関数エントロピー正規化(Los Function Entropy Regularization, LFER)は、事前学習および対照的学習目的関数に付加される正規化用語である。
LFERは最先端技術に匹敵する精度を持つアンサンブルを生成できるが、決定境界は様々であることを示す。
論文 参考訳(メタデータ) (2022-04-30T10:16:41Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Distribution-Free, Risk-Controlling Prediction Sets [112.9186453405701]
ユーザ特定レベルにおける将来のテストポイントにおける期待損失を制御するブラックボックス予測器から設定値予測を生成する方法を示す。
提案手法は,予測セットのサイズをキャリブレーションするホールドアウトセットを用いて,任意のデータセットに対して明確な有限サンプル保証を提供する。
論文 参考訳(メタデータ) (2021-01-07T18:59:33Z) - Robust Learning from Discriminative Feature Feedback [32.18449686637963]
より現実的で堅牢なバージョンのフレームワークを紹介します。
このような誤りを,逆向きとアリミ設定の両方でアルゴリズム的に処理する方法を示す。
論文 参考訳(メタデータ) (2020-03-09T06:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。