論文の概要: Impossibility of Characterizing Distribution Learning -- a simple
solution to a long-standing problem
- arxiv url: http://arxiv.org/abs/2304.08712v1
- Date: Tue, 18 Apr 2023 03:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:03:30.296791
- Title: Impossibility of Characterizing Distribution Learning -- a simple
solution to a long-standing problem
- Title(参考訳): 分散学習の特徴付けの不可能性--長年の問題に対する単純解法
- Authors: Tosca Lechner, Shai-Ben-David
- Abstract要約: 分散クラス学習の複雑さを特徴付ける次元の概念は存在しないことを示す。
特に,どのタスクにも次元(あるいは学習可能性の特性)を特徴づける概念は存在しないことを示す。
- 参考スコア(独自算出の注目度): 11.39656079889941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the long-standing question of finding a parameter of a class of
probability distributions that characterizes its PAC learnability. We provide a
rather surprising answer - no such parameter exists. Our techniques allow us to
show similar results for several general notions of characterizing learnability
and for several learning tasks. We show that there is no notion of dimension
that characterizes the sample complexity of learning distribution classes. We
then consider the weaker requirement of only characterizing learnability
(rather than the quantitative sample complexity function). We propose some
natural requirements for such a characterization and go on to show that there
exists no characterization of learnability that satisfies these requirements
for classes of distributions. Furthermore, we show that our results hold for
various other learning problems. In particular, we show that there is no notion
of dimension characterizing (or characterization of learnability) for any of
the tasks: classification learning for distribution classes, learning of binary
classifications w.r.t. a restricted set of marginal distributions, and
learnability of classes of real-valued functions with continuous losses.
- Abstract(参考訳): PAC学習性を特徴付ける確率分布のクラスのパラメータを見つけるための長年の課題を考察する。
このようなパラメータは存在しません。
本手法は,学習可能性の特徴付けや学習課題についても同様の結果を示すことができる。
学習分布クラスのサンプル複雑性を特徴付ける次元の概念は存在しないことを示す。
次に,学習可能性(量的サンプル複雑性関数ではなく)を特徴付けることの弱い要件を考える。
そこで本研究では,このような特徴付けに対する自然な要件を提案し,これらの要件を満たす学習能力のキャラクタリゼーションが存在しないことを示す。
さらに,この結果が,他の様々な学習問題にも有効であることを示す。
特に,分散クラスに対する分類学習,二分分類の学習,限界分布の制限された集合,連続的な損失を伴う実数値関数のクラスに対する学習可能性など,各タスクの次元的特徴付け(あるいは学習可能性の評価)は存在しないことを示す。
関連論文リスト
- Distribution Learnability and Robustness [13.45619583182489]
確率分布のクラスが実現可能な学習可能性を示すことは,その学習可能性を示すものではない。
続いて、分散クラスの学習性を阻害するデータ破損の種類について検討する。
論文 参考訳(メタデータ) (2024-06-25T05:09:54Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Realizable Learning is All You Need [21.34668631009594]
実現可能かつ不可知的な学習可能性の同値性は、学習理論における基本的な現象である。
実現可能かつ不可知な学習可能性の同値性を説明する最初のモデルに依存しないフレームワークを提示する。
論文 参考訳(メタデータ) (2021-11-08T19:00:00Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Attentional meta-learners are polythetic classifiers [5.543867614999908]
閾値メタラーナーは,これらの関数をエミュレートするために,特徴数の指数関数的な埋め込み次元を必要とすることを示す。
非識別的特徴を適応的に希釈する自己認識的特徴選択機構を提案する。
論文 参考訳(メタデータ) (2021-06-09T18:11:54Z) - From Undecidability of Non-Triviality and Finiteness to Undecidability
of Learnability [0.0]
新たに提案したモデルが実際にデータから学べるかどうかを厳格に評価するための汎用的な手順は存在しないことを示す。
PACバイナリ分類、一様および普遍的なオンライン学習、教師と教師の相互作用による正確な学習では、学習性は一般に決定不可能である。
機械学習モデルが成功するかどうかを決定するのに、すべてに適したアルゴリズムは存在しない。
論文 参考訳(メタデータ) (2021-06-02T18:00:04Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。