論文の概要: Confusion-based rank similarity filters for computationally-efficient
machine learning on high dimensional data
- arxiv url: http://arxiv.org/abs/2109.13610v1
- Date: Tue, 28 Sep 2021 10:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 21:31:24.044111
- Title: Confusion-based rank similarity filters for computationally-efficient
machine learning on high dimensional data
- Title(参考訳): 高次元データを用いた計算効率機械学習のための混乱に基づくランク類似度フィルタ
- Authors: Katharine A. Shapcott and Alex D. Bird
- Abstract要約: 我々は、ランク類似度フィルタ(RSF)と呼ばれる、計算効率の良い新しいタイプの人工知能ニューラルネットワーク(ANN)を導入する。
RSFは、多くのデータポイントと次元を持つ非線形分離可能なデータセットを変換し、分類するために使用することができる。
RST、RCC、RSPCのオープンソースコードは、人気のあるScikit-learnフレームワークを使用してPythonで書かれており、簡単にアクセスできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce a novel type of computationally efficient artificial neural
network (ANN) called the rank similarity filter (RSF). RSFs can be used to both
transform and classify nonlinearly separable datasets with many data points and
dimensions. The weights of RSF are set using the rank orders of features in a
data point, or optionally the 'confusion' adjusted ranks between features
(determined from their distributions in the dataset). The activation strength
of a filter determines its similarity to other points in the dataset, a measure
related to cosine similarity. The activation of many RSFs maps samples into a
new nonlinear space suitable for linear classification (the rank similarity
transform (RST)). We additionally used this method to create the nonlinear rank
similarity classifier (RSC), which is a fast and accurate multiclass
classifier, and the nonlinear rank similarity probabilistic classifier (RSPC),
which is an extension to the multilabel case. We evaluated the classifiers on
multiple datasets and RSC was competitive with existing classifiers but with
superior computational efficiency. Open-source code for RST, RSC and RSPC was
written in Python using the popular scikit-learn framework to make it easily
accessible. In future extensions the algorithm can be applied to specialised
hardware suitable for the parallelization of an ANN (GPU) and a Spiking Neural
Network (neuromorphic computing) with corresponding performance gains. This
makes RSF a promising solution to the problem of efficient analysis of
nonlinearly separable data.
- Abstract(参考訳): 本稿では,ランク類似度フィルタ(RSF)と呼ばれる,計算効率の良いニューラルネットワーク(ANN)を提案する。
RSFは、多くのデータポイントと次元を持つ非線形分離可能なデータセットの変換と分類の両方に使用できる。
RSFの重みは、データポイント内の特徴のランク順、またはオプションで特徴間の「融合」調整されたランク(データセット内の分布から決定される)を使って設定される。
フィルタの活性化強度は、コサイン類似度に関連する指標であるデータセットの他の点と類似度を決定する。
多くのRCFの活性化は、サンプルを線形分類(ランク類似性変換(RST))に適した新しい非線形空間にマッピングする。
さらに,この手法を用いて,高速かつ高精度なマルチクラス分類器である非線形ランク類似度分類器 (rsc) と,マルチラベルの場合の拡張である非線形ランク類似度確率分類器 (rspc) を作成する。
複数のデータセットで分類器を評価し,rscは既存の分類器と競合するが,計算効率は優れていた。
RST、RCC、RSPCのオープンソースコードは、人気のあるScikit-learnフレームワークを使用してPythonで書かれており、簡単にアクセスできる。
今後の拡張では、アルゴリズムをann(gpu)とスパイクニューラルネットワーク(ニューロモーフィックコンピューティング)の並列化に適した特殊なハードウェアに適用することができる。
これによりrsfは、非線形分離可能なデータの効率的な解析問題への有望な解決策となる。
関連論文リスト
- Efficient Similarity-based Passive Filter Pruning for Compressing CNNs [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は様々なアプリケーションで大きな成功を収めている。
CNNの計算複雑性とメモリストレージは、リソース制約のあるデバイスへのデプロイにおいてボトルネックとなる。
CNNの計算コストとメモリオーバーヘッドを削減しようとする最近の取り組みは、類似性に基づくパッシブフィルタプルーニング手法である。
論文 参考訳(メタデータ) (2022-10-27T09:57:47Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Rubik's Cube Operator: A Plug And Play Permutation Module for Better
Arranging High Dimensional Industrial Data in Deep Convolutional Processes [6.467208324670583]
畳み込みニューラルネットワーク(CNN)は産業データに基づく入力を処理するために広く利用されている。
画像とは異なり、産業データベースシステムの情報は必ずしも空間的に順序づけられるとは限らない。
産業データのデータ構造を適応的に変更するルービックキューブ演算子(RCO)を提案する。
論文 参考訳(メタデータ) (2022-03-24T08:13:56Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Probability-driven scoring functions in combining linear classifiers [0.913755431537592]
本研究の目的は,線形分類器のアンサンブルに特化した新しい融合法を構築することである。
提案手法は,KEELレポジトリから抽出した複数のベンチマークデータセットを用いて参照手法と比較する。
実験により、ある条件下では、いくつかの改善が得られ得ることが示された。
論文 参考訳(メタデータ) (2021-09-16T08:58:32Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Generalized Learning Vector Quantization for Classification in
Randomized Neural Networks and Hyperdimensional Computing [4.4886210896619945]
本稿では,トレーニング中の計算コストの高い行列操作を回避する改良型RVFLネットワークを提案する。
提案手法は,UCI Machine Learning Repositoryから取得したデータセットの集合に対して,最先端の精度を達成した。
論文 参考訳(メタデータ) (2021-06-17T21:17:17Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Classification and Feature Transformation with Fuzzy Cognitive Maps [0.3299672391663526]
Fuzzy Cognitive Maps(FCM)は、ファジィ論理と繰り返しニューラルネットワークの要素を組み合わせたソフトコンピューティング技術と考えられている。
本研究では,フルコネクテッドマップ構造を有するFCMに基づく分類器を提案する。
重みを勾配アルゴリズムで学習し,コスト関数としてloglossやcross-entropyを用いた。
論文 参考訳(メタデータ) (2021-03-08T22:26:24Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。