論文の概要: Approximate is Good Enough: Probabilistic Variants of Dimensional and
Margin Complexity
- arxiv url: http://arxiv.org/abs/2003.04180v1
- Date: Mon, 9 Mar 2020 14:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:06:11.302763
- Title: Approximate is Good Enough: Probabilistic Variants of Dimensional and
Margin Complexity
- Title(参考訳): 近似は十分である:次元の確率変数とマージン複雑性
- Authors: Pritish Kamath, Omar Montasser, Nathan Srebro
- Abstract要約: 我々は、与えられた仮説クラスを正確に表すのに必要な埋め込みの最小次元またはノルムに対応する、次元と辺の複雑性の近似的な概念を研究する。
このような概念は線形予測器やカーネルを用いて学習するのに十分であるだけでなく、正確な変種と異なり、必要であることを示す。
- 参考スコア(独自算出の注目度): 32.80506075285592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present and study approximate notions of dimensional and margin
complexity, which correspond to the minimal dimension or norm of an embedding
required to approximate, rather then exactly represent, a given hypothesis
class. We show that such notions are not only sufficient for learning using
linear predictors or a kernel, but unlike the exact variants, are also
necessary. Thus they are better suited for discussing limitations of linear or
kernel methods.
- Abstract(参考訳): 我々は、与えられた仮説クラスを正確に表すのに必要な埋め込みの最小次元またはノルムに対応する次元と辺の複雑性の近似的な概念を提示し、研究する。
このような概念は線形予測子やカーネルを用いた学習に十分であるだけでなく、正確な変種とは異なり必要であることを示す。
したがって、線形メソッドやカーネルメソッドの制限を議論するのに適している。
関連論文リスト
- On Reductions and Representations of Learning Problems in Euclidean Spaces [15.07787640047213]
多くの実用的な予測アルゴリズムはユークリッド空間における入力を表現し、離散的な0/1分類損失を真の自明な代理損失に置き換える。
我々は古典的トポロジカルアプローチと凸性を考慮したボルスク・ウラム理論の一般化を開発する。
また、ランダム性を利用して、より小さな次元で表現できる自然な分類タスクも提示する。
論文 参考訳(メタデータ) (2024-11-16T12:09:37Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Tight Cram\'{e}r-Rao type bounds for multiparameter quantum metrology
through conic programming [61.98670278625053]
最適な精度で不整合パラメータを推定できる実用的な測定戦略が最重要である。
ここでは、最適精度で非相関な測定方法を見つけるための具体的な方法を示す。
従来の計算可能境界と最終的な精度境界との間には厳密なギャップがあることを数値的に示す。
論文 参考訳(メタデータ) (2022-09-12T13:06:48Z) - IAN: Iterated Adaptive Neighborhoods for manifold learning and
dimensionality estimation [0.0]
類似性カーネルが与えるデータに対して適応的近傍を推定するアルゴリズムを提案する。
k-アネレスト隣人などの標準的なアルゴリズムとの比較は、その有用性を示している。
論文 参考訳(メタデータ) (2022-08-19T02:15:08Z) - Error in the Euclidean Preference Model [5.124256074746721]
ほぼすべての好みプロファイルがユークリッドモデルでは表現できないことを示す。
非ユークリッド選好プロファイルを近似するためにユークリッドモデルを用いた場合、予測誤差の理論的下界を導出する。
論文 参考訳(メタデータ) (2022-08-17T09:01:17Z) - Intrinsic Dimension Estimation [92.87600241234344]
内在次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。
次に、本手法を適用して、データ固有の次元に依存するGAN(Generative Adversarial Networks)に対する新しいサンプル複雑性境界を求める。
論文 参考訳(メタデータ) (2021-06-08T00:05:39Z) - $\gamma$-ABC: Outlier-Robust Approximate Bayesian Computation Based on a
Robust Divergence Estimator [95.71091446753414]
最寄りの$gamma$-divergence推定器をデータ差分尺度として用いることを提案する。
本手法は既存の不一致対策よりも高いロバスト性を実現する。
論文 参考訳(メタデータ) (2020-06-13T06:09:27Z) - Convex Representation Learning for Generalized Invariance in
Semi-Inner-Product Space [32.442549424823355]
本研究では, 半ノルムにおける多種多様な一般化表現のアルゴリズムを開発し, 先頭の表現子を定式化し, 境界を定式化する。
これにより、正確な予測とともに、我々の実験で確認されているように、表現を効率的かつ効果的に学習することができる。
論文 参考訳(メタデータ) (2020-04-25T18:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。