論文の概要: A Novel Data-Dependent Learning Paradigm for Large Hypothesis Classes
- arxiv url: http://arxiv.org/abs/2511.09996v1
- Date: Fri, 14 Nov 2025 01:24:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.624265
- Title: A Novel Data-Dependent Learning Paradigm for Large Hypothesis Classes
- Title(参考訳): 大規模仮説クラスのための新しいデータ依存学習パラダイム
- Authors: Alireza F. Pour, Shai Ben-David,
- Abstract要約: 実験的な推定値の一様収束を真の損失に導くには大きすぎる候補モデルの集合を用いて学習する一般的な課題に対処する。
本稿では,経験的データのより強力な取り込みと,事前の仮定に基づくアルゴリズムによる決定の少ない学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 4.299934797034146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the general task of learning with a set of candidate models that is too large to have a uniform convergence of empirical estimates to true losses. While the common approach to such challenges is SRM (or regularization) based learning algorithms, we propose a novel learning paradigm that relies on stronger incorporation of empirical data and requires less algorithmic decisions to be based on prior assumptions. We analyze the generalization capabilities of our approach and demonstrate its merits in several common learning assumptions, including similarity of close points, clustering of the domain into highly label-homogeneous regions, Lipschitzness assumptions of the labeling rule, and contrastive learning assumptions. Our approach allows utilizing such assumptions without the need to know their true parameters a priori.
- Abstract(参考訳): 実験的な推定値の一様収束を真の損失に導くには大きすぎる候補モデルの集合を用いて学習する一般的な課題に対処する。
このような課題に対する一般的なアプローチは、SRM(あるいは正規化)ベースの学習アルゴリズムであるが、経験的データのより強力な取り込みに依存し、事前の仮定に基づくアルゴリズム的な決定がより少ない新しい学習パラダイムを提案する。
提案手法の一般化能力を解析し, 近点の類似性, ドメインを高度にラベルと同質な領域にクラスタ化すること, ラベル付け規則のリプシッツネス仮定, 対照的な学習仮定など, いくつかの共通学習仮定でその利点を実証する。
我々の手法は、それらの真のパラメーターを先入観として知る必要なしに、そのような仮定を活用できる。
関連論文リスト
- Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - Bounds on the Generalization Error in Active Learning [0.0]
一般化誤差に上限の族を導出することにより,能動的学習のための経験的リスク原理を確立する。
我々は,多種多様な能動学習シナリオを体系的にリンクし,それらの損失関数と仮説クラスを対応する上界に関連付ける。
この結果から,様々な仮説クラスの複雑性を制約するために用いられる正規化手法は,境界の妥当性を確保するのに十分な条件であることが示唆された。
論文 参考訳(メタデータ) (2024-09-10T08:08:09Z) - An MRP Formulation for Supervised Learning: Generalized Temporal Difference Learning Models [20.314426291330278]
従来の統計的学習では、データポイントは独立して同じ分布であると仮定される。
本稿では,データポイントを相互に知覚するコントラスト的視点を提案する。
一般化時間差(TD)学習アルゴリズムを解法として導入する。
論文 参考訳(メタデータ) (2024-04-23T21:02:58Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Learning Stochastic Majority Votes by Minimizing a PAC-Bayes
Generalization Bound [15.557653926558638]
分類器の有限アンサンブルに対する多数票の対について検討し、その一般化特性について検討する。
ディリクレ分布でインスタンス化し、予測されるリスクに対して閉じた形式と微分可能な表現を可能にする。
結果の多数決学習アルゴリズムは、最先端の精度と(非空きな)厳密な境界から恩恵を得る。
論文 参考訳(メタデータ) (2021-06-23T16:57:23Z) - Measure Theoretic Approach to Nonuniform Learnability [16.467540842571328]
非一様学習性のキャラクタリゼーションは測定理論を用いて再定義されている。
このアプローチを実装するための新しいアルゴリズム、Generalize Measure Learnabilityフレームワークの導入。
GMLフレームワークを適用することが可能な、仮説クラスなど、多くの状況が提示された。
論文 参考訳(メタデータ) (2020-11-01T01:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。