論文の概要: Relative intrinsic dimensionality is intrinsic to learning
- arxiv url: http://arxiv.org/abs/2311.07579v1
- Date: Tue, 10 Oct 2023 10:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:07:33.732950
- Title: Relative intrinsic dimensionality is intrinsic to learning
- Title(参考訳): 相対的内在的次元性は学習に固有のものである
- Authors: Oliver J. Sutton, Qinghua Zhou, Alexander N. Gorban and Ivan Y. Tyukin
- Abstract要約: 本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
- 参考スコア(独自算出の注目度): 49.5738281105287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High dimensional data can have a surprising property: pairs of data points
may be easily separated from each other, or even from arbitrary subsets, with
high probability using just simple linear classifiers. However, this is more of
a rule of thumb than a reliable property as high dimensionality alone is
neither necessary nor sufficient for successful learning. Here, we introduce a
new notion of the intrinsic dimension of a data distribution, which precisely
captures the separability properties of the data. For this intrinsic dimension,
the rule of thumb above becomes a law: high intrinsic dimension guarantees
highly separable data. We extend this notion to that of the relative intrinsic
dimension of two data distributions, which we show provides both upper and
lower bounds on the probability of successfully learning and generalising in a
binary classification problem
- Abstract(参考訳): 高次元のデータには驚くべき性質がある: データポイントのペアは、単純な線形分類器を使って、容易に互いに分離したり、あるいは任意の部分集合から分離したりできる。
しかし、これは高次元性だけでは学習を成功させる必要も十分ではないので、信頼できる性質よりも親指の規則である。
本稿では,データの分離性を正確に捉えたデータ分布の固有次元の新たな概念を提案する。
この内在次元に対して、上述のサムの法則は法則となる: 高内在次元は高度に分離可能なデータを保証する。
我々はこの概念を2つのデータ分布の相対的内在次元に拡張し、二項分類問題における学習および一般化の確率について上下境界を与える。
関連論文リスト
- Canonical normalizing flows for manifold learning [14.377143992248222]
そこで本研究では,新しい目的によって変換行列を強制し,顕著で非退化的な基底関数をほとんど持たない正準多様体学習フロー法を提案する。
正準多様体の流れは潜在空間をより効率的に利用し、データを表現するために顕著で異なる次元を自動生成する。
論文 参考訳(メタデータ) (2023-10-19T13:48:05Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - A Short Note on the Relationship of Information Gain and Eluder
Dimension [86.86653394312134]
エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
論文 参考訳(メタデータ) (2021-07-06T04:01:22Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Learning a Deep Part-based Representation by Preserving Data
Distribution [21.13421736154956]
教師なし次元減少は、高次元データ認識問題において一般的に用いられる技法の1つである。
本稿では,データ分布を保存することにより,深部部分に基づく表現を学習し,新しいアルゴリズムを分散保存ネットワーク埋め込みと呼ぶ。
実世界のデータセットにおける実験結果から,提案アルゴリズムはクラスタ精度とAMIの点で優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-17T12:49:36Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - ABID: Angle Based Intrinsic Dimensionality [0.0]
内在的な次元性は、データ表現の次元性とは対照的に、データの真の次元性を指す。
局所固有次元を推定するための最も一般的な方法は距離に基づく。
角度の理論的分布を導出し、これを用いて固有次元の推定器を構築する。
論文 参考訳(メタデータ) (2020-06-23T10:19:34Z) - Robust Large-Margin Learning in Hyperbolic Space [64.42251583239347]
ユークリッド空間ではなく双曲型で分類器を学ぶための最初の理論的保証を示す。
本研究では, 対向例の慎重な注入に頼って, 大面積超平面を効率よく学習するアルゴリズムを提案する。
双曲空間によく埋め込まれる階層的データに対して、低埋め込み次元は優れた保証を保証することを証明している。
論文 参考訳(メタデータ) (2020-04-11T19:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。