論文の概要: An Experimental Study of Dimension Reduction Methods on Machine Learning
Algorithms with Applications to Psychometrics
- arxiv url: http://arxiv.org/abs/2210.13230v3
- Date: Wed, 22 Mar 2023 03:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 02:33:57.982567
- Title: An Experimental Study of Dimension Reduction Methods on Machine Learning
Algorithms with Applications to Psychometrics
- Title(参考訳): 機械学習アルゴリズムにおける次元削減手法の実験的検討と心理計測への応用
- Authors: Sean H. Merritt and Alexander P. Christensen
- Abstract要約: 次元の減少は、変数の減少を伴わないのと同じ精度で減少、増大、あるいは達成できることを示す。
我々の暫定的な結果は、次元の減少が分類タスクに使用する場合、より良い性能をもたらす傾向があることを見出した。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing interpretable machine learning models has become an increasingly
important issue. One way in which data scientists have been able to develop
interpretable models has been to use dimension reduction techniques. In this
paper, we examine several dimension reduction techniques including two recent
approaches developed in the network psychometrics literature called exploratory
graph analysis (EGA) and unique variable analysis (UVA). We compared EGA and
UVA with two other dimension reduction techniques common in the machine
learning literature (principal component analysis and independent component
analysis) as well as no reduction to the variables real data. We show that EGA
and UVA perform as well as the other reduction techniques or no reduction.
Consistent with previous literature, we show that dimension reduction can
decrease, increase, or provide the same accuracy as no reduction of variables.
Our tentative results find that dimension reduction tends to lead to better
performance when used for classification tasks.
- Abstract(参考訳): 解釈可能な機械学習モデルの開発は、ますます重要な問題になっている。
データサイエンティストが解釈可能なモデルを開発する方法の1つは、次元削減技術を使用することである。
本稿では,探索グラフ解析 (EGA) と一意変数解析 (UVA) と呼ばれるネットワーク心理計測学の2つの手法を含む,いくつかの次元削減手法について検討する。
我々はEGAとUVAを、機械学習文献(主成分分析と独立成分分析)に共通する他の2つの次元削減技術と比較した。
EGA と UVA は,他の還元技術と同様に機能し,還元しないことを示す。
従来の文献と一致して,次元減少は変数の減少を伴わずに減少し,増大し,あるいは精度が同じであることを示す。
仮の結果は、次元の縮小が分類タスクに使用する場合のパフォーマンス向上につながる傾向があることを見出した。
関連論文リスト
- Exploring the Influence of Dimensionality Reduction on Anomaly Detection
Performance in Multivariate Time Series [0.9790236766474201]
この研究は、MSL、SMAP、SWaTの3つの異なるデータセットにわたる包括的な評価を含んでいる。
調査対象はPCA, UMAP, Random Projection, t-SNEである。
トレーニング時間の顕著な減少が観察され,次元が半減すると約300%,650%の減少がみられた。
論文 参考訳(メタデータ) (2024-03-07T11:59:00Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - An evaluation framework for dimensionality reduction through sectional
curvature [59.40521061783166]
本研究は,非教師付き次元減少性能指標を初めて導入することを目的としている。
その実現可能性をテストするために、この測定基準は最もよく使われる次元削減アルゴリズムの性能を評価するために用いられている。
新しいパラメータ化問題インスタンスジェネレータが関数ジェネレータの形式で構築されている。
論文 参考訳(メタデータ) (2023-03-17T11:59:33Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Understanding Incremental Learning of Gradient Descent: A Fine-grained
Analysis of Matrix Sensing [74.2952487120137]
GD(Gradient Descent)は、機械学習モデルにおいて、良い一般化に対する暗黙のバイアスをもたらすと考えられている。
本稿では,行列センシング問題に対するGDのダイナミクスを詳細に解析する。
論文 参考訳(メタデータ) (2023-01-27T02:30:51Z) - A Brief Survey on Representation Learning based Graph Dimensionality
Reduction Techniques [0.0]
情報損失の度合いの異なる低次元に高次元で表されるデータをマッピングする。
グラフデータから埋め込みを効率よく生成し、それらを低次元の潜在空間に投影する手法はいくつか存在する。
本稿では,既存のグラフ次元削減技術に関連する問題点とともに,そのメリットを概説する。
論文 参考訳(メタデータ) (2022-10-13T04:29:24Z) - Exploring Dimensionality Reduction Techniques in Multilingual
Transformers [64.78260098263489]
本稿では,多言語シームス変圧器の性能に及ぼす次元還元法の影響を包括的に考察する。
これは、それぞれ91.58% pm 2.59%$と54.65% pm 32.20%$の次元を平均で減少させることが可能であることを示している。
論文 参考訳(メタデータ) (2022-04-18T17:20:55Z) - Supervised Linear Dimension-Reduction Methods: Review, Extensions, and
Comparisons [6.71092092685492]
主成分分析(PCA)は、データ解析やモデリングに広く用いられている、よく知られた線形次元還元法である。
本稿では,選択した手法をレビューし,その一部を拡張し,シミュレーションによる性能比較を行う。
これらの2つの手法のうち、部分最小二乗法(PLS)と最小二乗法(LSPCA)は、この研究で他よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-09T17:57:25Z) - Joint Dimensionality Reduction for Separable Embedding Estimation [43.22422640265388]
異なるソースからのデータの低次元埋め込みは、機械学習、マルチメディア情報検索、バイオインフォマティクスにおいて重要な役割を果たす。
異なるモダリティのデータや異なる種類の実体からのデータを表す2つの特徴ベクトルに対して,線形埋め込みを共同で学習する,教師付き次元還元法を提案する。
提案手法は,他の次元減少法と比較し,遺伝子・退化関連を予測するための両線形回帰の最先端手法と比較した。
論文 参考訳(メタデータ) (2021-01-14T08:48:37Z) - Longitudinal Variational Autoencoder [1.4680035572775534]
不足値を含む高次元データを解析するための一般的なアプローチは、変分オートエンコーダ(VAE)を用いた低次元表現を学習することである。
標準的なVAEは、学習した表現はi.d.であり、データサンプル間の相関を捉えることができないと仮定する。
本稿では,多出力加法的ガウス過程(GP)を用いて,構造化された低次元表現を学習するVAEの能力を拡張した縦型VAE(L-VAE)を提案する。
我々の手法は時間変化の共有効果とランダム効果の両方に同時に対応でき、構造化された低次元表現を生成する。
論文 参考訳(メタデータ) (2020-06-17T10:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。