論文の概要: Modern Dimension Reduction
- arxiv url: http://arxiv.org/abs/2103.06885v1
- Date: Thu, 11 Mar 2021 14:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 03:20:55.163310
- Title: Modern Dimension Reduction
- Title(参考訳): 現代の次元削減
- Authors: Philip D. Waggoner
- Abstract要約: このエレメントは、数百行のRコードとともに、現代的な教師なしの次元削減テクニックのスイートを提供する。
本稿では, 局所線形埋め込み, t分散隣接埋め込み, 均一な多様体近似と投影, 自己組織化マップ, ディープオートエンコーダなどの手法を応用した読者を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data are not only ubiquitous in society, but are increasingly complex both in
size and dimensionality. Dimension reduction offers researchers and scholars
the ability to make such complex, high dimensional data spaces simpler and more
manageable. This Element offers readers a suite of modern unsupervised
dimension reduction techniques along with hundreds of lines of R code, to
efficiently represent the original high dimensional data space in a simplified,
lower dimensional subspace. Launching from the earliest dimension reduction
technique principal components analysis and using real social science data, I
introduce and walk readers through application of the following techniques:
locally linear embedding, t-distributed stochastic neighbor embedding (t-SNE),
uniform manifold approximation and projection, self-organizing maps, and deep
autoencoders. The result is a well-stocked toolbox of unsupervised algorithms
for tackling the complexities of high dimensional data so common in modern
society. All code is publicly accessible on Github.
- Abstract(参考訳): データは社会で普遍的であるだけでなく、サイズと次元の両方でますます複雑です。
次元の縮小により、研究者や研究者はそのような複雑で高次元のデータ空間をシンプルで管理しやすいものにすることができる。
この要素は、数百行のRコードとともに現代の監視されていない次元縮小技術のスイートを読者に提供し、元の高次元データ空間を簡略化された低次元のサブスペースで効率的に表現します。
最初期の次元削減技術による主成分分析と実社会科学データの利用から,局所線形埋め込み,t分散確率的隣接埋め込み(t-SNE),一様多様体近似と投影,自己組織化マップ,深部オートエンコーダといった手法を応用し,ウォーキング読者に紹介・紹介する。
その結果は、現代社会でよく見られる高次元データの複雑性に取り組むための監視されていないアルゴリズムの十分なツールボックスである。
すべてのコードはgithubで公開されている。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - In search of the most efficient and memory-saving visualization of high
dimensional data [0.0]
多次元データの可視化は、非次元近傍グラフの2方向埋め込みをよく近似していると論じる。
既存のリダクション手法は遅すぎるため、インタラクティブな操作ができない。
高品質な埋め込みは、最小限の時間とメモリの複雑さで生成されることを示す。
論文 参考訳(メタデータ) (2023-02-27T20:56:13Z) - A Data-dependent Approach for High Dimensional (Robust) Wasserstein
Alignment [10.374243304018794]
本稿では,高次元幾何学的パターンを圧縮する効果的な枠組みを提案する。
我々の考えは、高次元データはしばしば本質的な次元が低いという観察にインスパイアされている。
我々のフレームワークは、入力データの本質的な次元に依存する複雑さを持つデータ依存のアプローチである。
論文 参考訳(メタデータ) (2022-09-07T03:29:26Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - High-dimensional separability for one- and few-shot learning [58.8599521537]
この作業は、実用的な質問、人工知能(AI)エラーの修正によって進められている。
特殊な外部デバイスである修正器が開発されている。従来のAIシステムを変更することなく、迅速かつ非イテレーティブなシステム修正を提供する必要がある。
AIシステムの新しいマルチコレクタが提示され、深層畳み込みニューラルネットワークによってエラーを予測し、新しいクラスのオブジェクトを学習する例が紹介される。
論文 参考訳(メタデータ) (2021-06-28T14:58:14Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Learning a Deep Part-based Representation by Preserving Data
Distribution [21.13421736154956]
教師なし次元減少は、高次元データ認識問題において一般的に用いられる技法の1つである。
本稿では,データ分布を保存することにより,深部部分に基づく表現を学習し,新しいアルゴリズムを分散保存ネットワーク埋め込みと呼ぶ。
実世界のデータセットにおける実験結果から,提案アルゴリズムはクラスタ精度とAMIの点で優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-17T12:49:36Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Online high rank matrix completion [39.570686604641836]
行列補完の最近の進歩は、低次元(非線形)潜在構造を利用して、フルランク行列におけるデータ計算を可能にする。
我々は,高階行列補完のための新しいモデルと,そのモデルとサンプル外拡張に適合するバッチおよびオンライン手法を開発した。
論文 参考訳(メタデータ) (2020-02-20T18:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。