論文の概要: Intrinsic Dimension Estimation via Nearest Constrained Subspace
Classifier
- arxiv url: http://arxiv.org/abs/2002.03228v1
- Date: Sat, 8 Feb 2020 20:54:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:06:24.325190
- Title: Intrinsic Dimension Estimation via Nearest Constrained Subspace
Classifier
- Title(参考訳): 近距離制約部分空間分類器による固有次元推定
- Authors: Liang Liao and Stephen John Maybank
- Abstract要約: 教師付き分類や固有次元推定のために,新しい部分空間に基づく分類器を提案する。
各クラスのデータの分布は、特徴空間の有限個のファイン部分空間の和によってモデル化される。
The proposed method is a generalization of classical NN (Nearest Neighbor), NFL (Nearest Feature Line) and has a close relationship with NS (Nearest Subspace)。
推定次元パラメータが正確に推定された分類器は、一般に分類精度の点で競合より優れている。
- 参考スコア(独自算出の注目度): 7.028302194243312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problems of classification and intrinsic dimension estimation
on image data. A new subspace based classifier is proposed for supervised
classification or intrinsic dimension estimation. The distribution of the data
in each class is modeled by a union of of a finite number ofaffine subspaces of
the feature space. The affine subspaces have a common dimension, which is
assumed to be much less than the dimension of the feature space. The subspaces
are found using regression based on the L0-norm. The proposed method is a
generalisation of classical NN (Nearest Neighbor), NFL (Nearest Feature Line)
classifiers and has a close relationship to NS (Nearest Subspace) classifier.
The proposed classifier with an accurately estimated dimension parameter
generally outperforms its competitors in terms of classification accuracy. We
also propose a fast version of the classifier using a neighborhood
representation to reduce its computational complexity. Experiments on publicly
available datasets corroborate these claims.
- Abstract(参考訳): 画像データにおける分類と固有次元推定の問題点を考察する。
教師付き分類や固有次元推定のための新しい部分空間に基づく分類器を提案する。
各クラス内のデータの分布は、特徴空間の有限個の親和部分空間の和によってモデル化される。
アフィン部分空間は共通の次元を持ち、これは特徴空間の次元よりもはるかに小さいと仮定される。
部分空間は L0-ノルムに基づく回帰を用いて見つかる。
提案手法は,古典的NN(Nearest Neighbor),NFL(Nearest Feature Line)分類器の一般化であり,NS(Nearest Subspace)分類器と密接に関連している。
推定次元パラメータが正確に推定された分類器は、一般に分類精度の点で競合より優れている。
また,その計算複雑性を低減するために,近傍表現を用いた分類器の高速バージョンを提案する。
公開データセットに関する実験は、これらの主張を裏付ける。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - Approximation and generalization properties of the random projection classification method [0.4604003661048266]
ランダムな一次元特徴を閾値付けした低複素度分類器群について検討する。
特定の分類問題(例えば、大きな羅生門比を持つもの)に対して、ランダムにパラメータを選択することにより、一般化特性において潜在的に大きな利得がある。
論文 参考訳(メタデータ) (2021-08-11T23:14:46Z) - Learning optimally separated class-specific subspace representations
using convolutional autoencoder [0.0]
サブスペース固有の特徴表現を生成するための新しい畳み込みオートエンコーダアーキテクチャを提案する。
提案手法の有効性を実証するため,最先端の機械学習データセットを用いていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-19T00:45:34Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Linear Classifiers in Mixed Constant Curvature Spaces [40.82908295137667]
我々は、ユークリッド空間、球面空間、双曲空間の混合である積空間形式の線形分類の問題に対処する。
我々は、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を粉砕できることを証明した。
新規なパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
論文 参考訳(メタデータ) (2021-02-19T23:29:03Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance
Model [101.74172837046382]
そこで本研究では,魚の識別比を最大化する2次分類手法を提案する。
数値シミュレーションにより,提案した分類器は,合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量の削減も要求されることがわかった。
論文 参考訳(メタデータ) (2020-06-25T12:00:26Z) - Ellipsoidal Subspace Support Vector Data Description [98.67884574313292]
一クラス分類に最適化された低次元空間にデータを変換する新しい手法を提案する。
提案手法の線形および非線形の定式化について述べる。
提案手法は,最近提案されたサブスペースサポートベクトルデータ記述よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2020-03-20T21:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。