論文の概要: M-ar-K-Fast Independent Component Analysis
- arxiv url: http://arxiv.org/abs/2108.07908v1
- Date: Tue, 17 Aug 2021 23:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 23:47:39.703398
- Title: M-ar-K-Fast Independent Component Analysis
- Title(参考訳): M-ar-K-Fast独立成分分析
- Authors: Luca Parisi
- Abstract要約: 本研究では,特徴抽出のためのm-arcsinh Kernel ('m-ar-K') Fast Independent Component Analysis ('FastICA')を提案する。
カーネルのトリックにより、データの非直線性が高い範囲をキャプチャできる次元削減技術が実現された。
m-ar-K関数はPythonで自由に利用でき、オープンソースのライブラリ'cikit-learn'と互換性がある。
- 参考スコア(独自算出の注目度): 1.027974860479791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents the m-arcsinh Kernel ('m-ar-K') Fast Independent
Component Analysis ('FastICA') method ('m-ar-K-FastICA') for feature
extraction. The kernel trick has enabled dimensionality reduction techniques to
capture a higher extent of non-linearity in the data; however, reproducible,
open-source kernels to aid with feature extraction are still limited and may
not be reliable when projecting features from entropic data. The m-ar-K
function, freely available in Python and compatible with its open-source
library 'scikit-learn', is hereby coupled with FastICA to achieve more reliable
feature extraction in presence of a high extent of randomness in the data,
reducing the need for pre-whitening. Different classification tasks were
considered, as related to five (N = 5) open access datasets of various degrees
of information entropy, available from scikit-learn and the University
California Irvine (UCI) Machine Learning repository. Experimental results
demonstrate improvements in the classification performance brought by the
proposed feature extraction. The novel m-ar-K-FastICA dimensionality reduction
approach is compared to the 'FastICA' gold standard method, supporting its
higher reliability and computational efficiency, regardless of the underlying
uncertainty in the data.
- Abstract(参考訳): 本研究では,特徴抽出のためのm-arcsinh Kernel ('m-ar-K') Fast Independent Component Analysis ('FastICA')法を提案する。
カーネルのトリックにより、次元の縮小技術はデータの非線型性をより高めることができるが、特徴抽出を助けるための再現性のあるオープンソースカーネルはまだ限られており、エントロピーデータから特徴を投影する場合は信頼性に欠ける可能性がある。
pythonで無償で利用可能で、オープンソースのライブラリ'scikit-learn'と互換性があるm-ar-k関数は、データに高い範囲のランダム性が存在する場合に、より信頼性の高い機能抽出を実現するためにfasticaと結合され、事前白化の必要性を低減している。
様々な分類タスクが検討され、シキット・ラーンとUCI(University California Irvine)機械学習レポジトリから利用可能な、様々な情報エントロピーの5つの(N = 5)オープンアクセスデータセットに関連づけられた。
実験の結果,提案する特徴抽出による分類性能の向上が示された。
新たなm-ar-K-FastICA次元削減手法は,データの不確実性に関わらず,信頼性と計算効率を高めるため,'FastICA'ゴールド標準法と比較される。
関連論文リスト
- Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - RFFNet: Large-Scale Interpretable Kernel Methods via Random Fourier Features [3.0079490585515347]
RFFNetは1次最適化によってカーネルの関連性をリアルタイムで学習するスケーラブルな手法である。
提案手法はメモリフットプリントが小さく,実行時,予測誤差が低く,関連する特徴を効果的に識別できることを示す。
私たちは、Scikit-learn標準APIと結果を完全に再現するためのコードに準拠した、効率的でPyTorchベースのライブラリをユーザに提供します。
論文 参考訳(メタデータ) (2022-11-11T18:50:34Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Random projections and Kernelised Leave One Cluster Out
Cross-Validation: Universal baselines and evaluation tools for supervised
machine learning for materials properties [10.962094053749093]
1つのクラスタ・アウト・クロス・バリデーション(LOCO-CV)は、これまで目に見えない材料群を予測するアルゴリズムの性能を測定する方法として導入された。
コンポジションベース表現の徹底的な比較を行い,カーネル近似関数を用いてLOCO-CVアプリケーションの拡張を行う方法について検討する。
テストされたほとんどのタスクにおいて、ドメイン知識は機械学習のパフォーマンスを向上しないが、バンドギャップ予測は例外である。
論文 参考訳(メタデータ) (2022-06-17T15:39:39Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - m-arcsinh: An Efficient and Reliable Function for SVM and MLP in
scikit-learn [2.398608007786179]
「m-arcsinh」は双曲型逆正弦関数(「arcsinh」)の修正版(「m-」)である
カーネルとアクティベーション機能は、SVM(Support Vector Machine)やMLP(Multi-Layer Perceptron)といった機械学習(ML)ベースのアルゴリズムを可能にする。
m-arcsinhはオープンソースのPythonライブラリ'cikit-learn'で実装されている
論文 参考訳(メタデータ) (2020-09-16T07:59:15Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Physics Informed Deep Kernel Learning [24.033468062984458]
物理インフォームドディープカーネル学習(PI-DKL)は、遅延源を持つ微分方程式で表される物理知識を利用する。
効率的かつ効果的な推論のために、潜伏変数を疎外し、崩壊したモデルエビデンスローバウンド(ELBO)を導出する。
論文 参考訳(メタデータ) (2020-06-08T22:43:31Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。