論文の概要: Data Dimension Reduction makes ML Algorithms efficient
- arxiv url: http://arxiv.org/abs/2211.09392v1
- Date: Thu, 17 Nov 2022 07:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:07:18.519197
- Title: Data Dimension Reduction makes ML Algorithms efficient
- Title(参考訳): データ次元削減によるMLアルゴリズムの効率化
- Authors: Wisal Khan, Muhammad Turab, Waqas Ahmad, Syed Hasnat Ahmad, Kelash
Kumar and Bin Luo
- Abstract要約: 本稿では,事前処理がアルゴリズムを高速化するだけでなく,教師なし学習と教師なし学習の精度を向上させることを実証する。
本実験は,教師なし学習と教師なし学習の両方において,前処理後の精度と時間短縮が大幅に向上していることを示す。
- 参考スコア(独自算出の注目度): 7.1448956468996245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data dimension reduction (DDR) is all about mapping data from high dimensions
to low dimensions, various techniques of DDR are being used for image dimension
reduction like Random Projections, Principal Component Analysis (PCA), the
Variance approach, LSA-Transform, the Combined and Direct approaches, and the
New Random Approach. Auto-encoders (AE) are used to learn end-to-end mapping.
In this paper, we demonstrate that pre-processing not only speeds up the
algorithms but also improves accuracy in both supervised and unsupervised
learning. In pre-processing of DDR, first PCA based DDR is used for supervised
learning, then we explore AE based DDR for unsupervised learning. In PCA based
DDR, we first compare supervised learning algorithms accuracy and time before
and after applying PCA. Similarly, in AE based DDR, we compare unsupervised
learning algorithm accuracy and time before and after AE representation
learning. Supervised learning algorithms including support-vector machines
(SVM), Decision Tree with GINI index, Decision Tree with entropy and Stochastic
Gradient Descent classifier (SGDC) and unsupervised learning algorithm
including K-means clustering, are used for classification purpose. We used two
datasets MNIST and FashionMNIST Our experiment shows that there is massive
improvement in accuracy and time reduction after pre-processing in both
supervised and unsupervised learning.
- Abstract(参考訳): データ次元の縮小(DDR)は、高次元から低次元へのデータマッピングに関するものであり、ランダム射影、主成分分析(PCA)、分散アプローチ、LSA変換、結合および直接アプローチ、新しいランダムアプローチなどの様々なDDRの手法が画像次元の縮小に使われている。
自動エンコーダ(AE)はエンドツーエンドマッピングの学習に使用される。
本稿では,事前処理がアルゴリズムを高速化するだけでなく,教師なし学習と教師なし学習の精度を向上させることを示す。
DDRの前処理では、PCAをベースとした最初のDDRが教師なし学習に使用される。
PCAに基づくDDRでは,まず,PCA適用前後の教師付き学習アルゴリズムの精度と時間を比較する。
同様に、AEに基づくDDRでは、教師なし学習アルゴリズムの精度とAE表現学習前後の時間を比較する。
支援ベクトルマシン(SVM)、GINIインデックス付き決定木、エントロピー付き決定木、SGDC(Stochastic Gradient Descent Classifier)およびK平均クラスタリングを含む教師なし学習アルゴリズムを含む教師なし学習アルゴリズムが分類目的に用いられる。
我々はMNISTとFashionMNISTの2つのデータセットを用いて、教師なし学習と教師なし学習の両方において、事前処理後の精度と時間短縮が大幅に改善されていることを示した。
関連論文リスト
- A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - One-Pass Learning via Bridging Orthogonal Gradient Descent and Recursive
Least-Squares [8.443742714362521]
我々は,従来のデータポイントの予測にほとんど変化しない方向にパラメータを変更しながら,すべての新しいデータポイントに完全に適合するワンパス学習アルゴリズムを開発した。
我々のアルゴリズムは、インクリメンタル・プリンシパル・コンポーネント分析(IPCA)を用いてストリーミングデータの構造を利用して、メモリを効率的に利用する。
本実験では,提案手法の有効性をベースラインと比較した。
論文 参考訳(メタデータ) (2022-07-28T02:01:31Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Overcoming Catastrophic Forgetting via Direction-Constrained
Optimization [43.53836230865248]
連続的な学習フレームワークにおいて,分類ネットワークの固定アーキテクチャを用いてディープラーニングモデルを学習するための最適化アルゴリズムの新たな設計について検討する。
本稿では,方向制約付き最適化(DCO)法について述べる。各タスクに対して,対応する最上向きの主方向を近似する線形オートエンコーダを導入する。
我々のアルゴリズムは、他の最先端の正規化に基づく連続学習法と比較して好適に機能することを示した。
論文 参考訳(メタデータ) (2020-11-25T08:45:21Z) - Interpolation-based semi-supervised learning for object detection [44.37685664440632]
オブジェクト検出のための補間に基づく半教師付き学習手法を提案する。
提案した損失は、半教師付き学習と教師付き学習の性能を劇的に向上させる。
論文 参考訳(メタデータ) (2020-06-03T10:53:44Z) - Reinforcement Learning with Augmented Data [97.42819506719191]
本稿では,ほとんどのRLアルゴリズムを拡張可能なシンプルなプラグイン・アンド・プレイモジュールであるReinforcement Learning with Augmented Data (RAD)を提案する。
本稿では,RLアルゴリズムが複雑な最先端手法より優れていることを示すために,ランダム翻訳,作物,カラージッタ,パッチカットアウト,ランダム畳み込み,振幅スケールなどの拡張法を提案する。
論文 参考訳(メタデータ) (2020-04-30T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。