論文の概要: A universally consistent learning rule with a universally monotone error
- arxiv url: http://arxiv.org/abs/2108.09733v1
- Date: Sun, 22 Aug 2021 14:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:01:17.410543
- Title: A universally consistent learning rule with a universally monotone error
- Title(参考訳): 普遍的単調誤差をもつ普遍的一貫した学習規則
- Authors: Vladimir Pestov
- Abstract要約: 予測誤差が単調な単調な一貫した学習規則を各データ分布の標本サイズで提案する。
私たちのルールは完全に決定論的であり、任意のドメインで構築されたデータ依存のパーティショニングルールです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a universally consistent learning rule whose expected error is
monotone non-increasing with the sample size under every data distribution. The
question of existence of such rules was brought up in 1996 by Devroye, Gy\"orfi
and Lugosi (who called them "smart"). Our rule is fully deterministic, a
data-dependent partitioning rule constructed in an arbitrary domain (a standard
Borel space) using a cyclic order. The central idea is to only partition at
each step those cyclic intervals that exhibit a sufficient empirical diversity
of labels, thus avoiding a region where the error function is convex.
- Abstract(参考訳): 予測誤差が単調な単調な一貫した学習規則を各データ分布の標本サイズで提案する。
このような規則の存在に関する問題は、1996年にDevroye, Gy\"orfi and Lugosi(彼はそれを"smart"と呼んだ)によって提起された。
我々の規則は完全に決定論的であり、任意の領域(標準ボレル空間)で巡回順序を用いて構築されたデータ依存の分割規則である。
中心となる考え方は、各ステップでラベルの十分な経験的多様性を示す循環区間のみを分割することであり、エラー関数が凸である領域を避けることである。
関連論文リスト
- Gradual Domain Adaptation via Manifold-Constrained Distributionally Robust Optimization [0.4732176352681218]
本稿では、多様体制約データ分布のクラスにおける段階的領域適応の課題に対処する。
本稿では,適応的なワッサースタイン半径を持つ分布ロバスト最適化(DRO)を基礎とした手法を提案する。
我々のバウンダリは、新たに導入されたそれとの互換性尺度に依存しており、シーケンスに沿ったエラー伝搬のダイナミクスを完全に特徴付けています。
論文 参考訳(メタデータ) (2024-10-17T22:07:25Z) - Harnessing Hierarchical Label Distribution Variations in Test Agnostic Long-tail Recognition [114.96385572118042]
テストラベルの分布の変動は階層的にグローバルレベルとローカルレベルに分解できると主張している。
ラベル分布の異なるDirichletメタ分布に専門家を割り当てる新しいMoE戦略である$mathsfDirMixE$を提案する。
本稿では,分散に基づく正規化による一般化の促進による目的性を示す。
論文 参考訳(メタデータ) (2024-05-13T14:24:56Z) - Are Gaussian data all you need? Extents and limits of universality in
high-dimensional generalized linear estimation [24.933476324230377]
単一インデックスモデルによるラベル付きガウス混合データに対する一般化線形推定の問題点を考察する。
一般線形推定におけるテストとトレーニングエラーの普遍性に関する最近の結果のストリームに触発されて、我々は自問自答する。
論文 参考訳(メタデータ) (2023-02-17T14:56:40Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Learning Globally Smooth Functions on Manifolds [94.22412028413102]
スムーズな関数の学習は、線形モデルやカーネルモデルなどの単純なケースを除いて、一般的に難しい。
本研究は,半無限制約学習と多様体正規化の技法を組み合わせることで,これらの障害を克服することを提案する。
軽度条件下では、この手法は解のリプシッツ定数を推定し、副生成物として大域的に滑らかな解を学ぶ。
論文 参考訳(メタデータ) (2022-10-01T15:45:35Z) - Local versions of sum-of-norms clustering [77.34726150561087]
本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
論文 参考訳(メタデータ) (2021-09-20T14:45:29Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Interpolating Classifiers Make Few Mistakes [32.317571566131335]
最小ノルム補間分類器(MNIC)の誤りを導出する。
MNIC は補間解のノルムに比例して一般化されることを示す。
また,人口階層の条件分布が全変量で十分に分離可能である限り,MNICは急速に一般化することを示した。
論文 参考訳(メタデータ) (2021-01-28T04:51:24Z) - On Uniform Convergence and Low-Norm Interpolation Learning [25.96459928769678]
経験的誤差と人口的誤差の差を均一に有界に表すことは,標準球における学習を全く示さないことを示す。
我々は、最小限のノルム補間器の整合性は、わずかに弱いが標準的概念、つまり標準球におけるゼロエラー予測器の一様収束で説明できると主張している。
論文 参考訳(メタデータ) (2020-06-10T16:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。