論文の概要: Distribution-Free Sequential Prediction with Abstentions
- arxiv url: http://arxiv.org/abs/2602.17918v1
- Date: Fri, 20 Feb 2026 00:28:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.192787
- Title: Distribution-Free Sequential Prediction with Abstentions
- Title(参考訳): 留意点を考慮した分布自由系列予測
- Authors: Jialin Yu, Moïse Blanchard,
- Abstract要約: 本研究では, 敵が任意の数の敵インスタンスを任意に注入することを許容する逐次予測問題について検討する。
各ラウンドにおいて、学習者はインスタンスが実際に破損した場合、ペナルティを発生させることなく予測を行うことも強調できる。
本稿では,弱い学習者の強化手順に基づくtextscAbstainBoostを提案する。
- 参考スコア(独自算出の注目度): 7.110627876507878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a sequential prediction problem in which an adversary is allowed to inject arbitrarily many adversarial instances in a stream of i.i.d.\ instances, but at each round, the learner may also \emph{abstain} from making a prediction without incurring any penalty if the instance was indeed corrupted. This semi-adversarial setting naturally sits between the classical stochastic case with i.i.d.\ instances for which function classes with finite VC dimension are learnable; and the adversarial case with arbitrary instances, known to be significantly more restrictive. For this problem, Goel et al. (2023) showed that, if the learner knows the distribution $μ$ of clean samples in advance, learning can be achieved for all VC classes without restrictions on adversary corruptions. This is, however, a strong assumption in both theory and practice: a natural question is whether similar learning guarantees can be achieved without prior distributional knowledge, as is standard in classical learning frameworks (e.g., PAC learning or asymptotic consistency) and other non-i.i.d.\ models (e.g., smoothed online learning). We therefore focus on the distribution-free setting where $μ$ is \emph{unknown} and propose an algorithm \textsc{AbstainBoost} based on a boosting procedure of weak learners, which guarantees sublinear error for general VC classes in \emph{distribution-free} abstention learning for oblivious adversaries. These algorithms also enjoy similar guarantees for adaptive adversaries, for structured function classes including linear classifiers. These results are complemented with corresponding lower bounds, which reveal an interesting polynomial trade-off between misclassification error and number of erroneous abstentions.
- Abstract(参考訳): 我々は,各ラウンドにおいて,学習者が,実際にインスタンスが破損した場合のペナルティを伴わずに予測を行なわずに,任意の数の逆のインスタンスを任意に注入することが許される逐次予測問題について検討する。
この半対数設定は古典的確率的ケースと有限VC次元の関数類が学習可能なインスタンスの間に自然に存在する。
この問題に対して、Goel et al (2023) は、学習者が事前に$μ$のクリーンサンプルの分布を知っていれば、敵の汚職を制限することなく全てのVCクラスで学習が達成できることを示した。
しかし、これは理論と実践の両方において強い仮定である: 自然な疑問は、古典的な学習フレームワーク(例えば、PAC学習や漸近的一貫性)や他の非i.d.\モデル(例えば、スムーズなオンライン学習)で標準的なように、類似の学習保証が事前の分散知識なしで達成できるかどうかである。
そこで我々は,$μ$ が \emph{unknown} となる分布自由設定に着目し,弱学習者の強化手順に基づくアルゴリズム \textsc{AbstainBoost} を提案する。
これらのアルゴリズムはまた、線形分類器を含む構造化関数クラスに対して、アダプティブ・アダプティブ・アダプティブ・アダプティブ・アディショナル・アダプティブ・アダプティブ・アディショナル・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ
これらの結果は対応する下界と補完され、誤分類誤差と誤った棄権数の間の興味深い多項式のトレードオフが明らかになる。
関連論文リスト
- Probably Approximately Precision and Recall Learning [60.00180898830079]
機械学習における重要な課題は、一方的なフィードバックの頻度である。
本稿では,確率的近似(PAC)フレームワークを導入し,各入力をラベルの集合にマッピングする仮説を定めている。
我々は、正のデータのみから学習する新しいアルゴリズムを開発し、実現可能な場合において最適なサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Agnostic Smoothed Online Learning without Knowledge of the Base Measure [5.167069404528051]
本稿では,$mu$の事前知識を必要とせずに,オンライン学習を円滑に行うためのサブ線形後悔を保証するアルゴリズムを提案する。
R-Coverは、次元$d$を持つ関数クラスに対して、適応的後悔$tilde O(sqrtdT/sigma)$を持つ。
論文 参考訳(メタデータ) (2024-10-07T15:25:21Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Adversarial Resilience in Sequential Prediction via Abstention [46.80218090768711]
本研究では,クリーンラベルの逆数例を注入できる逆数設定における逐次予測の問題について検討する。
そこで本研究では,純粋と完全対向的な設定の間に位置する逐次予測の新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-06-22T17:44:22Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Beyond Perturbations: Learning Guarantees with Arbitrary Adversarial
Test Examples [17.11261628874086]
任意の列車およびテスト分布を持つ有界VC次元の学習クラスに対して、非自明な保証を与える。
提案アルゴリズムは, 経験的リスク最小化器(ERM)を$C$で提案する。
論文 参考訳(メタデータ) (2020-07-10T03:00:12Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。