論文の概要: Learning the Hypotheses Space from data Part II: Convergence and
Feasibility
- arxiv url: http://arxiv.org/abs/2001.11578v2
- Date: Fri, 10 Sep 2021 12:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 11:44:59.527841
- Title: Learning the Hypotheses Space from data Part II: Convergence and
Feasibility
- Title(参考訳): データから仮説空間を学ぶ その2:収束と実現可能性
- Authors: Diego Marcondes, Adilson Simonis and Junior Barrera
- Abstract要約: 学習空間に基づくモデル選択フレームワークの一貫性を示す。
データから仮説空間を学習することは可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In part \textit{I} we proposed a structure for a general Hypotheses Space
$\mathcal{H}$, the Learning Space $\mathbb{L}(\mathcal{H})$, which can be
employed to avoid \textit{overfitting} when estimating in a complex space with
relative shortage of examples. Also, we presented the U-curve property, which
can be taken advantage of in order to select a Hypotheses Space without
exhaustively searching $\mathbb{L}(\mathcal{H})$. In this paper, we carry
further our agenda, by showing the consistency of a model selection framework
based on Learning Spaces, in which one selects from data the Hypotheses Space
on which to learn. The method developed in this paper adds to the
state-of-the-art in model selection, by extending Vapnik-Chervonenkis Theory to
\textit{random} Hypotheses Spaces, i.e., Hypotheses Spaces learned from data.
In this framework, one estimates a random subspace $\hat{\mathcal{M}} \in
\mathbb{L}(\mathcal{H})$ which converges with probability one to a target
Hypotheses Space $\mathcal{M}^{\star} \in \mathbb{L}(\mathcal{H})$ with desired
properties. As the convergence implies asymptotic unbiased estimators, we have
a consistent framework for model selection, showing that it is feasible to
learn the Hypotheses Space from data. Furthermore, we show that the
generalization errors of learning on $\hat{\mathcal{M}}$ are lesser than those
we commit when learning on $\mathcal{H}$, so it is more efficient to learn on a
subspace learned from data.
- Abstract(参考訳): 部分 \textit{I} では、一般的な仮説空間 $\mathcal{H}$, Learning Space $\mathbb{L}(\mathcal{H})$ の構造を提案した。
また、u-曲線の性質も示しており、これは$\mathbb{l}(\mathcal{h})$ を徹底的に探すことなく仮説空間を選択するために利用できる。
本稿では,学習空間に基づくモデル選択フレームワークの一貫性を示すことで,学習すべき仮説空間のデータからモデル選択フレームワークの一貫性を示す。
本稿では,Vapnik-Chervonenkis理論を<textit{random} hypotheses Spaces,すなわちデータから学習した仮説空間に拡張することにより,モデル選択の最先端性を高める。
このフレームワークでは、確率 1 に収束するランダム部分空間 $\hat{\mathcal{M}} \in \mathbb{L}(\mathcal{H})$ を、所望の性質を持つ対象の仮想空間 $\mathcal{M}^{\star} \in \mathbb{L}(\mathcal{H})$ に推定する。
収束は漸近的無バイアス推定器を意味するので、モデル選択のための一貫した枠組みを持ち、データから仮説空間を学習することは可能であることを示す。
さらに、$\hat{\mathcal{M}}$での学習の一般化誤差は、$\mathcal{H}$で学習する際のコミットよりも小さいので、データから学習したサブスペースで学習することがより効率的であることを示す。
関連論文リスト
- An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - Optimal Rates for Regularized Conditional Mean Embedding Learning [32.870965795423366]
経験的CME推定器に対して,不特定条件下での新しい適応的統計的学習率を導出する。
我々の解析は、$mathcalH_Y$を有限次元と仮定することなく、最適な$O(log n / n)$レートと一致することを示した。
論文 参考訳(メタデータ) (2022-08-02T19:47:43Z) - Cryptographic Hardness of Learning Halfspaces with Massart Noise [59.8587499110224]
マスアートノイズの存在下でのPAC学習ハーフスペースの複雑さについて検討した。
我々は,最適0-1誤差が小さい場合でも,リアルタイムのMassartハーフスペース学習者が$Omega(eta)$よりも良い誤差を得られることを示す。
論文 参考訳(メタデータ) (2022-07-28T17:50:53Z) - Learning the hypotheses space from data through a U-curve algorithm: a
statistically consistent complexity regularizer for Model Selection [0.0]
本稿では, モデル選択に対するデータ駆動型, 一貫性, 非排他的アプローチを提案する。
我々の主な貢献は、$mathbbL(mathcalH)$上で正規化モデル選択を行うデータ駆動の一般学習アルゴリズムである。
このアプローチの顕著な結果は、$mathbbL(mathcalH)$の非排他的探索が最適解を返すことができる条件である。
論文 参考訳(メタデータ) (2021-09-08T18:28:56Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Universal Regular Conditional Distributions via Probability
Measure-Valued Deep Neural Models [3.8073142980733]
提案したフレームワークを用いて構築されたモデルはすべて、$C(mathcalX,mathcalP_1(mathcalY))$で密集している。
提案モデルはまた、ほとんどのランダム化された機械学習モデルに存在するアレラトリック不確かさを汎用的に表現できることも示している。
論文 参考訳(メタデータ) (2021-05-17T11:34:09Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - Stochastic Linear Bandits with Protected Subspace [51.43660657268171]
線形目的関数を最適化するが、報酬は未知の部分空間にのみ得られる線形帯域問題の変種について検討する。
特に、各ラウンドでは、学習者は、目的または保護されたサブスペースを、アクションの選択とともにクエリするかどうかを選択する必要がある。
提案アルゴリズムはOFULの原理から導かれるもので,保護された空間を推定するためにクエリのいくつかを利用する。
論文 参考訳(メタデータ) (2020-11-02T14:59:39Z) - Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and
ReLUs under Gaussian Marginals [49.60752558064027]
ガウス境界の下では、半空間とReLUを不可知的に学習する基本的な問題について検討する。
我々の下限は、これらのタスクの現在の上限が本質的に最良のものであるという強い証拠を与える。
論文 参考訳(メタデータ) (2020-06-29T17:10:10Z) - Learning the Hypotheses Space from data: Learning Space and U-curve
Property [0.0]
本稿では、学習問題を仮説空間$mathcalH$だけでなく、学習空間$mathbbL(mathcalH)$でモデル化する古典的なPAC学習モデルの拡張について述べる。
我々の主な貢献は、$mathbbL(mathcalH)$で正規化モデル選択を行うデータ駆動の一般学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-01-26T22:29:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。