論文の概要: Intrinsic Dimension Estimation
- arxiv url: http://arxiv.org/abs/2106.04018v1
- Date: Tue, 8 Jun 2021 00:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 08:13:17.139256
- Title: Intrinsic Dimension Estimation
- Title(参考訳): 固有次元推定
- Authors: Adam Block, Zeyu Jia, Yury Polyanskiy, and Alexander Rakhlin
- Abstract要約: 内在次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。
次に、本手法を適用して、データ固有の次元に依存するGAN(Generative Adversarial Networks)に対する新しいサンプル複雑性境界を求める。
- 参考スコア(独自算出の注目度): 92.87600241234344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has long been thought that high-dimensional data encountered in many
practical machine learning tasks have low-dimensional structure, i.e., the
manifold hypothesis holds. A natural question, thus, is to estimate the
intrinsic dimension of a given population distribution from a finite sample. We
introduce a new estimator of the intrinsic dimension and provide finite sample,
non-asymptotic guarantees. We then apply our techniques to get new sample
complexity bounds for Generative Adversarial Networks (GANs) depending only on
the intrinsic dimension of the data.
- Abstract(参考訳): 多くの実用的な機械学習タスクで遭遇する高次元データは、低次元構造、すなわち多様体仮説が持つと長い間考えられてきた。
したがって、自然問題とは、有限サンプルから与えられた集団分布の固有次元を推定することである。
固有次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。
次に,本手法を応用して,データ固有次元のみに依存する生成逆ネットワーク (gans) の新たなサンプル複雑性境界を得る。
関連論文リスト
- Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Estimating Shape Distances on Neural Representations with Limited
Samples [5.959815242044236]
我々は高次元形状推定のための厳密な統計理論を開発する。
この推定器は、特に高次元設定において、ニューラルネットワークシミュレーションデータよりも低いバイアスが得られることを示す。
論文 参考訳(メタデータ) (2023-10-09T14:16:34Z) - On Deep Generative Models for Approximation and Estimation of
Distributions on Manifolds [38.311376714689]
生成ネットワークは、低次元の簡単サンプル分布から高次元の複素データを生成することができる。
このような低次元データ構造を、低次元多様体上でのデータ分布が支えられていると仮定して検討する。
ワッサーシュタイン-1の損失は、周囲のデータ次元ではなく内在次元に依存する速度でゼロに収束することを示す。
論文 参考訳(メタデータ) (2023-02-25T22:34:19Z) - Intrinsic Dimensionality Estimation within Tight Localities: A
Theoretical and Experimental Analysis [0.0]
そこで本研究では,20個のサンプル点からなるタイトな局所性に対しても安定な局所ID推定手法を提案する。
実験結果から,提案手法の偏差は比較的小さいが, 偏差は比較的小さく, 試料径は最先端の推定値よりもはるかに小さいことがわかった。
論文 参考訳(メタデータ) (2022-09-29T00:00:11Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Pure Exploration in Kernel and Neural Bandits [90.23165420559664]
我々は、特徴表現の次元が腕の数よりもはるかに大きい帯域における純粋な探索について研究する。
そこで本研究では,各アームの特徴表現を低次元空間に適応的に埋め込む手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T19:51:59Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - A Topological Approach to Inferring the Intrinsic Dimension of Convex
Sensing Data [0.0]
本稿では,アフィン空間の未知の部分集合を未知の準フィルタ関数によって測定する,共通の測定パラダイムを考える。
本論文では,自然仮定の下でデータの次元を推定する手法を開発する。
論文 参考訳(メタデータ) (2020-07-07T05:35:23Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。