論文の概要: Relatively Smart: A New Approach for Instance-Optimal Learning
- arxiv url: http://arxiv.org/abs/2603.01346v1
- Date: Mon, 02 Mar 2026 00:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.639021
- Title: Relatively Smart: A New Approach for Instance-Optimal Learning
- Title(参考訳): 相対的スマート: インスタンス最適学習のための新しいアプローチ
- Authors: Shaddin Dughmi, Alireza F. Pour,
- Abstract要約: 我々は、準教師付き学習者と競合する教師付き学習者を求めるスマートPAC学習の枠組みを再考する。
比較的スマートな学習は不可能か,あるいは慣用的な学習アプローチを必要とする可能性があることを示す。
- 参考スコア(独自算出の注目度): 3.545082819007165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit the framework of Smart PAC learning, which seeks supervised learners which compete with semi-supervised learners that are provided full knowledge of the marginal distribution on unlabeled data. Prior work has shown that such marginal-by-marginal guarantees are possible for "most" marginals, with respect to an arbitrary fixed and known measure, but not more generally. We discover that this failure can be attributed to an "indistinguishability" phenomenon: There are marginals which cannot be statistically distinguished from other marginals that require different learning approaches. In such settings, semi-supervised learning cannot certify its guarantees from unlabeled data, rendering them arguably non-actionable. We propose relatively smart learning, a new framework which demands that a supervised learner compete only with the best "certifiable" semi-supervised guarantee. We show that such modest relaxation suffices to bypass the impossibility results from prior work. In the distribution-free setting, we show that the OIG learner is relatively smart up to squaring the sample complexity, and show that no supervised learning algorithm can do better. For distribution-family settings, we show that relatively smart learning can be impossible or can require idiosyncratic learning approaches, and its difficulty can be non-monotone in the inclusion order on distribution families.
- Abstract(参考訳): 我々は、ラベルのないデータに対する限界分布の完全な知識を提供するセミ教師付き学習者と競合する教師付き学習者を求めるスマートPAC学習の枠組みを再考する。
以前の研究は、任意の固定された既知の測度に関して、この辺縁保証が「最も」辺縁に対して可能であることを示したが、より一般には不可能である。
異なる学習アプローチを必要とする他の限界と統計的に区別できない限界が存在する。
このような設定では、半教師付き学習はラベルのないデータから保証を認証することができず、当然非作用である。
我々は,教師付き学習者が最高の「確認可能な」半教師付き保証とのみ競合することを要求する新しいフレームワークである,比較的スマートな学習を提案する。
このような緩やかな緩和は、事前の作業から不可能な結果を回避するのに十分であることを示す。
分布のない環境では,OIG学習者はサンプルの複雑さを把握し,教師付き学習アルゴリズムがうまく機能しないことを示す。
配電系統の設定では、比較的スマートな学習は不可能か、慣用的な学習アプローチを必要とする可能性があり、その難しさは配電系統への包摂順序において非単調であることが示される。
関連論文リスト
- Characterizing Online and Private Learnability under Distributional Constraints via Generalized Smoothness [63.833913892018536]
本研究では、固定されたファミリー$U$からデータ生成分布を適応的に選択できる分布敵の下でのシーケンシャルな意思決定について検討する。
一般化滑らか性(Generalized smoothness)という概念の観点で学習可能性を認めるファミリー$U$のほぼ完全な特徴付けを提供する。
一般化された滑らかさは,分布制約下での個人学習性も特徴付けることを示す。
論文 参考訳(メタデータ) (2026-02-24T06:15:59Z) - Generalization Bounds and Stopping Rules for Learning with Self-Selected Data [0.0]
被覆数とワッサーシュタイン曖昧性集合を用いた相互学習の普遍的一般化境界を証明する。
我々は, 相互学習における半教師付き学習の特別事例について, 我々の限界と規則の停止について説明する。
論文 参考訳(メタデータ) (2025-05-12T09:06:39Z) - Proper Learnability and the Role of Unlabeled Data [10.168670899305232]
適切な学習可能性が論理的に決定不可能な問題、すなわちZFC公理に依存しない問題が存在することを示す。
そこで本研究では,PACモデルにおいて,適切な学習可能性の特性を損なう不確実性に関するすべての結果を示す。
論文 参考訳(メタデータ) (2025-02-14T18:41:53Z) - Probably Approximately Precision and Recall Learning [60.00180898830079]
機械学習における重要な課題は、一方的なフィードバックの頻度である。
本稿では,確率的近似(PAC)フレームワークを導入し,各入力をラベルの集合にマッピングする仮説を定めている。
我々は、正のデータのみから学習する新しいアルゴリズムを開発し、実現可能な場合において最適なサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Adversarially Robust Learning: A Generic Minimax Optimal Learner and
Characterization [39.51923275855131]
本研究では,テスト時間における逆例に頑健な予測器の学習問題に対して,最小限の最適学習器を提案する。
特に、強い否定的な意味で、モンタッサー、ハネケ、スレブロによって提案された頑健な学習者の亜最適性を示す。
論文 参考訳(メタデータ) (2022-09-15T15:32:42Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Improving Self-supervised Learning with Automated Unsupervised Outlier
Arbitration [83.29856873525674]
本稿では,自己教師型学習のためのビューサンプリング問題を対象とした,軽量潜在変数モデル UOTA を提案する。
本手法は,多くの主流な自己指導型学習手法に直接応用する。
論文 参考訳(メタデータ) (2021-12-15T14:05:23Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Credal Self-Supervised Learning [0.0]
未ラベルのインスタンスに対して,学習者が"擬似スーパービジョン"を生成する方法を示す。
整合性正規化と組み合わせて、擬似ラベルは様々な領域で有望な性能を示している。
我々は、我々の方法論を最先端のセルフスーパービジョンアプローチと比較する。
論文 参考訳(メタデータ) (2021-06-22T15:19:04Z) - Semi-verified PAC Learning from the Crowd [7.594050968868919]
本研究では,クラウドソース型PAC学習におけるしきい値関数の問題点について検討する。
本稿では,Charikar等の半検証モデルを用いて,PACが基礎となる仮説クラスを大量のラベルクエリで学習可能であることを示す。
論文 参考訳(メタデータ) (2021-06-13T20:05:16Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Unsupervisedly Learned Representations: Should the Quest be Over? [0.0]
強化学習が動物と同じ精度の表現を学習できることを実証する。
これらの観察の要旨は、シミュレーション環境で訓練される可能性のある教師なし学習の競争パラダイムのさらなる探索が無駄になる可能性があるということである。
論文 参考訳(メタデータ) (2020-01-21T13:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。