論文の概要: JL-lemma derived Optimal Projections for Discriminative Dictionary
Learning
- arxiv url: http://arxiv.org/abs/2308.13991v2
- Date: Tue, 12 Sep 2023 09:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 16:29:32.788784
- Title: JL-lemma derived Optimal Projections for Discriminative Dictionary
Learning
- Title(参考訳): JL-lemmaによる識別辞書学習のための最適投影法
- Authors: G.Madhuri, Atul Negi, Kaluri V.Rangarao
- Abstract要約: 本稿では、ジョンソン・リンデンシュトラウス(JL)レンマを用いて、信号分類のために識別辞書を学習できる変換空間の次元性を選択する。
M-SPCAからの単一ステップで導出された射影変換行列は、最先端の次元減少に基づく辞書学習法とは異なり、最大特徴ラベル整合性を提供する。
OCRおよび顔認識データセットの実験は、他の教師付き辞書学習アルゴリズムよりも比較的優れた分類性能を示す。
- 参考スコア(独自算出の注目度): 0.6138671548064356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To overcome difficulties in classifying large dimensionality data with a
large number of classes, we propose a novel approach called JLSPCADL. This
paper uses the Johnson-Lindenstrauss (JL) Lemma to select the dimensionality of
a transformed space in which a discriminative dictionary can be learned for
signal classification. Rather than reducing dimensionality via random
projections, as is often done with JL, we use a projection transformation
matrix derived from Modified Supervised PC Analysis (M-SPCA) with the
JL-prescribed dimension.
JLSPCADL provides a heuristic to deduce suitable distortion levels and the
corresponding Suitable Description Length (SDL) of dictionary atoms to derive
an optimal feature space and thus the SDL of dictionary atoms for better
classification. Unlike state-of-the-art dimensionality reduction-based
dictionary learning methods, a projection transformation matrix derived in a
single step from M-SPCA provides maximum feature-label consistency of the
transformed space while preserving the cluster structure of the original data.
Despite confusing pairs, the dictionary for the transformed space generates
discriminative sparse coefficients, with fewer training samples.
Experimentation demonstrates that JLSPCADL scales well with an increasing
number of classes and dimensionality. Improved label consistency of features
due to M-SPCA helps to classify better. Further, the complexity of training a
discriminative dictionary is significantly reduced by using SDL.
Experimentation on OCR and face recognition datasets shows relatively better
classification performance than other supervised dictionary learning
algorithms.
- Abstract(参考訳): 大規模次元データを多数のクラスで分類することの難しさを克服するため,JLSPCADLと呼ばれる新しい手法を提案する。
本稿では、ジョンソン・リンデンシュトラウス(JL)レンマを用いて、信号分類のために識別辞書を学習できる変換空間の次元性を選択する。
ランダムなプロジェクションによって次元を減少させる代わりに、JLでしばしば行われるように、修正スーパービジョンPC解析(M-SPCA)からJLで規定される次元に導かれる射影変換行列を用いる。
JLSPCADLは、最適特徴空間を導出するために、適切な歪みレベルと対応する辞書原子の適切な記述長(SDL)を導出するヒューリスティックを提供し、より良い分類のために辞書原子のSDLを提供する。
最先端の次元縮小に基づく辞書学習法とは異なり、m-spcaから単段導出する投影変換行列は、元のデータのクラスター構造を維持しながら変換空間の最大特徴ラベル一貫性を提供する。
混乱したペアにもかかわらず、変換空間の辞書はより少ないトレーニングサンプルで差別的なスパース係数を生成する。
実験により、JLSPCADLはクラス数や次元数の増加とともに拡張可能であることが示された。
M-SPCAによる特徴のラベル一貫性の改善は、よりよい分類に役立つ。
さらに、SDLを用いて識別辞書の訓練の複雑さを著しく低減する。
OCRおよび顔認識データセットの実験は、他の教師付き辞書学習アルゴリズムよりも比較的優れた分類性能を示す。
関連論文リスト
- An SVD-free Approach to Nonlinear Dictionary Learning based on RVFL [0.7252027234425334]
提案したRVFLに基づく非線形辞書学習は,スパース・トゥ・デンス特徴写像として辞書を学習する。
画像分類と再構成の応用で示される手法の性能は他の非線形辞書学習法と同等である。
論文 参考訳(メタデータ) (2024-02-06T09:24:53Z) - An Efficient Approximate Method for Online Convolutional Dictionary
Learning [32.90534837348151]
トレーニングサンプルのスパース分解を取り入れた新しい近似OCDL法を提案する。
提案手法は,最先端のOCDLアルゴリズムの有効性を保ちながら,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-01-25T13:40:18Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Locality Constrained Analysis Dictionary Learning via K-SVD Algorithm [6.162666237389167]
合成K-SVDアルゴリズム(SK-LADL)を用いた新しい局所性制約分析辞書学習モデルを提案する。
画像データの幾何学的構造を明らかにするためにグラフ正規化を課すことにより、本質的な幾何学的性質を考察する。
学習した解析辞書を通して、画像は多様体の仮定をさらに保証できる新しいコンパクトな空間に変換される。
論文 参考訳(メタデータ) (2021-04-29T05:58:34Z) - High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance
Model [101.74172837046382]
そこで本研究では,魚の識別比を最大化する2次分類手法を提案する。
数値シミュレーションにより,提案した分類器は,合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量の削減も要求されることがわかった。
論文 参考訳(メタデータ) (2020-06-25T12:00:26Z) - Ellipsoidal Subspace Support Vector Data Description [98.67884574313292]
一クラス分類に最適化された低次元空間にデータを変換する新しい手法を提案する。
提案手法の線形および非線形の定式化について述べる。
提案手法は,最近提案されたサブスペースサポートベクトルデータ記述よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2020-03-20T21:31:03Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z) - Learning Hybrid Representation by Robust Dictionary Learning in
Factorized Compressed Space [84.37923242430999]
本研究では,高次圧縮空間における高次低ランクとスパース表現のハイブリッド化を実現するために,頑健な辞書学習(DL)について検討する。
共用ロバスト因子化と射影辞書学習(J-RFDL)モデルを提案する。
論文 参考訳(メタデータ) (2019-12-26T06:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。