論文の概要: Generalization Bounds and Stopping Rules for Learning with Self-Selected Data
- arxiv url: http://arxiv.org/abs/2505.07367v1
- Date: Mon, 12 May 2025 09:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.324801
- Title: Generalization Bounds and Stopping Rules for Learning with Self-Selected Data
- Title(参考訳): 自己選択データを用いた学習における一般化境界と停止規則
- Authors: Julian Rodemann, James Bailie,
- Abstract要約: 被覆数とワッサーシュタイン曖昧性集合を用いた相互学習の普遍的一般化境界を証明する。
我々は, 相互学習における半教師付き学習の特別事例について, 我々の限界と規則の停止について説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many learning paradigms self-select training data in light of previously learned parameters. Examples include active learning, semi-supervised learning, bandits, or boosting. Rodemann et al. (2024) unify them under the framework of "reciprocal learning". In this article, we address the question of how well these methods can generalize from their self-selected samples. In particular, we prove universal generalization bounds for reciprocal learning using covering numbers and Wasserstein ambiguity sets. Our results require no assumptions on the distribution of self-selected data, only verifiable conditions on the algorithms. We prove results for both convergent and finite iteration solutions. The latter are anytime valid, thereby giving rise to stopping rules for a practitioner seeking to guarantee the out-of-sample performance of their reciprocal learning algorithm. Finally, we illustrate our bounds and stopping rules for reciprocal learning's special case of semi-supervised learning.
- Abstract(参考訳): 多くの学習パラダイムは、以前に学習されたパラメータに基づいて、自己選択的なトレーニングデータである。
例えば、アクティブラーニング、半教師付きラーニング、バンディット、ブースティングなどがある。
Rodemann et al (2024)は「相互学習」という枠組みの下でそれらを統一した。
本稿では,これらの手法が自己選択型サンプルからどの程度有効に一般化できるか,という課題に対処する。
特に、被覆数とワッサーシュタイン曖昧性集合を用いた相互学習の普遍一般化境界を証明する。
提案手法では, 自己選択したデータの分布に関する仮定は必要とせず, アルゴリズムの検証可能な条件のみを仮定する。
収束および有限反復解の両方に対する結果を証明する。
後者はいつでも有効であり、相互学習アルゴリズムのアウト・オブ・サンプル性能を保証しようとする実践者のルールを停止させる。
最後に, 相互学習における半教師付き学習の特別な場合において, 制約と規則の停止について説明する。
関連論文リスト
- Sample Compression for Continual Learning [4.354838732412981]
連続学習アルゴリズムは、一連のタスクから学習することを目的としており、トレーニング分布を静止しないものにしている。
本稿では,タスク毎に最も代表的なサンプルを効率的に保持できる「Continual Pick-to-Learn」(CoP2L)という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-13T16:05:56Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Reciprocal Learning [0.0]
我々は、機械学習アルゴリズムが1つのパラダイムの特定の例であることを示す。
本稿では,これらのアルゴリズムの一般化として,決定論の言語を用いた相互学習を紹介する。
相反学習アルゴリズムは、損失関数の比較的軽度な仮定の下で、線形速度でほぼ最適なモデルに収束する。
論文 参考訳(メタデータ) (2024-08-12T16:14:52Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Towards optimally abstaining from prediction [22.937799541125607]
機械学習のあらゆる領域に共通する課題は、トレーニングデータがテストデータのように分散されていないことだ。
一定のコストで予測を控えるモデルを考える。
我々は、Goldwasser、Kalais、Montasser(2020年)の最近の禁断アルゴリズムに基づいて、トランスダクティブバイナリ分類を行った。
論文 参考訳(メタデータ) (2021-05-28T21:44:48Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。