論文の概要: Effects of Parametric and Non-Parametric Methods on High Dimensional
Sparse Matrix Representations
- arxiv url: http://arxiv.org/abs/2202.02894v1
- Date: Mon, 7 Feb 2022 00:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 06:13:56.401090
- Title: Effects of Parametric and Non-Parametric Methods on High Dimensional
Sparse Matrix Representations
- Title(参考訳): 高次元スパース行列表現に対するパラメトリック法と非パラメトリック法の影響
- Authors: Sayali Tambe, Raunak Joshi, Abhishek Gupta, Nandan Kanvinde, Vidya
Chitre
- Abstract要約: セマンティクスは、機械学習アルゴリズムの表現を提供するテキストデータから導かれる。
学習法はパラメトリックおよび非パラメトリック学習法として広く分類されているため,本論文では,これらのアルゴリズムが高次元スパース行列表現に与える影響について述べる。
- 参考スコア(独自算出の注目度): 2.719418335747252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The semantics are derived from textual data that provide representations for
Machine Learning algorithms. These representations are interpretable form of
high dimensional sparse matrix that are given as an input to the machine
learning algorithms. Since learning methods are broadly classified as
parametric and non-parametric learning methods, in this paper we provide the
effects of these type of algorithms on the high dimensional sparse matrix
representations. In order to derive the representations from the text data, we
have considered TF-IDF representation with valid reason in the paper. We have
formed representations of 50, 100, 500, 1000 and 5000 dimensions respectively
over which we have performed classification using Linear Discriminant Analysis
and Naive Bayes as parametric learning method, Decision Tree and Support Vector
Machines as non-parametric learning method. We have later provided the metrics
on every single dimension of the representation and effect of every single
algorithm detailed in this paper.
- Abstract(参考訳): セマンティクスは、機械学習アルゴリズムの表現を提供するテキストデータに由来する。
これらの表現は、機械学習アルゴリズムへの入力として与えられる高次元スパース行列の解釈可能な形式である。
学習法はパラメトリックおよび非パラメトリック学習法として広く分類されているので,高次元スパース行列表現にこの種のアルゴリズムが与える影響について述べる。
テキストデータから表現を導出するため,本論文ではTF-IDF表現を妥当な理由から検討した。
我々は,50,100,500,1000,5000次元の表現を作成し,パラメータ学習法として線形判別分析,ネイブベイズを,非パラメトリック学習法として,決定木とサポートベクトルマシンを分類した。
その後、本論文で詳述した全てのアルゴリズムの表現と効果のすべての次元についてメトリクスを提供した。
関連論文リスト
- Manifold learning: what, how, and why [2.681437069928767]
Manifold Learning (ML) は、データの低次元構造を見つけるための一連の手法である。
MLによって得られた新しい表現と記述子は、高次元の点雲の幾何学的形状を明らかにする。
本調査は,MLの基礎となる原則,代表的手法,および実践統計学者の視点からの統計基盤を提示する。
論文 参考訳(メタデータ) (2023-11-07T06:44:20Z) - Optimal Projections for Discriminative Dictionary Learning using the JL-lemma [0.5461938536945723]
次元減少に基づく辞書学習法は、しばしば反復的ランダムプロジェクションを用いている。
本稿では、ジョンソン-リンデンシュトラウス補題を用いて、投影行列をデランドマイズする構成的手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T02:59:59Z) - Exploring ordered patterns in the adjacency matrix for improving machine
learning on complex networks [0.0]
提案手法は、複素グラフの隣接行列の要素を特定の順序で並べ替えるソートアルゴリズムを用いる。
結果のソートされた隣接行列は、特徴抽出と機械学習アルゴリズムの入力として使用され、ネットワークを分類する。
論文 参考訳(メタデータ) (2023-01-20T00:01:23Z) - Understanding High Dimensional Spaces through Visual Means Employing
Multidimensional Projections [0.0]
データ視覚化分野における関連する2つのアルゴリズムは、t分散近傍埋め込み(t-SNE)とLSP(Last-Square Projection)である。
これらのアルゴリズムは、データセットへの影響を含む、いくつかの数学的機能を理解するために使用することができる。
本稿では,多次元投影アルゴリズムの視覚的結果を用いて,それらの数学的枠組みのパラメータを理解・微調整する方法について述べる。
論文 参考訳(メタデータ) (2022-07-12T20:30:33Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Learning Linearized Assignment Flows for Image Labeling [70.540936204654]
画像ラベリングのための線形化代入フローの最適パラメータを推定するための新しいアルゴリズムを提案する。
この式をKrylov部分空間と低ランク近似を用いて効率的に評価する方法を示す。
論文 参考訳(メタデータ) (2021-08-02T13:38:09Z) - Learning Log-Determinant Divergences for Positive Definite Matrices [47.61701711840848]
本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
論文 参考訳(メタデータ) (2021-04-13T19:09:43Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。