論文の概要: Discriminative Dictionary Learning based on Statistical Methods
- arxiv url: http://arxiv.org/abs/2111.09027v1
- Date: Wed, 17 Nov 2021 10:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:08:01.632829
- Title: Discriminative Dictionary Learning based on Statistical Methods
- Title(参考訳): 統計的手法に基づく識別辞書学習
- Authors: G.Madhuri, Atul Negi
- Abstract要約: 信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sparse Representation (SR) of signals or data has a well founded theory with
rigorous mathematical error bounds and proofs. SR of a signal is given by
superposition of very few columns of a matrix called Dictionary, implicitly
reducing dimensionality. Training dictionaries such that they represent each
class of signals with minimal loss is called Dictionary Learning (DL).
Dictionary learning methods like Method of Optimal Directions (MOD) and K-SVD
have been successfully used in reconstruction based applications in image
processing like image "denoising", "inpainting" and others. Other dictionary
learning algorithms such as Discriminative K-SVD and Label Consistent K-SVD are
supervised learning methods based on K-SVD. In our experience, one of the
drawbacks of current methods is that the classification performance is not
impressive on datasets like Telugu OCR datasets, with large number of classes
and high dimensionality. There is scope for improvement in this direction and
many researchers have used statistical methods to design dictionaries for
classification. This chapter presents a review of statistical techniques and
their application to learning discriminative dictionaries. The objective of the
methods described here is to improve classification using sparse
representation. In this chapter a hybrid approach is described, where sparse
coefficients of input data are generated. We use a simple three layer Multi
Layer Perceptron with back-propagation training as a classifier with those
sparse codes as input. The results are quite comparable with other computation
intensive methods.
Keywords: Statistical modeling, Dictionary Learning, Discriminative
Dictionary, Sparse representation, Gaussian prior, Cauchy prior, Entropy,
Hidden Markov model, Hybrid Dictionary Learning
- Abstract(参考訳): 信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
信号のSRは、Dictionaryと呼ばれる行列のごくわずかな列の重ね合わせによって与えられる。
損失の少ない各信号のクラスを表すような辞書を辞書学習(Dictionary Learning,DL)と呼ぶ。
Method of Optimal Directions (MOD) や K-SVD といった辞書学習手法は、画像の「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
識別的K-SVDやラベル一貫性K-SVDといった他の辞書学習アルゴリズムは、K-SVDに基づく教師付き学習手法である。
我々の経験では、現在の手法の欠点の1つは、分類性能がTelugu OCRデータセットのようなデータセットでは印象的でないことである。
この方向の改善にはスコープがあり、多くの研究者は分類のための辞書を設計するために統計的手法を用いてきた。
本章では,統計的手法と識別辞書の学習への応用について概説する。
本研究の目的は,スパース表現を用いた分類の改善である。
この章では、入力データのスパース係数を生成するハイブリッドアプローチについて説明する。
これらのスパースコードを入力として,バックプロパゲーショントレーニングを分類器として,単純な3層マルチレイヤパーセプトロンを使用する。
結果は、他の計算集約的な手法と非常に同等である。
キーワード:統計的モデリング、辞書学習、判別辞書、スパース表現、ガウス前文、コーシー前文、エントロピー、隠れマルコフモデル、ハイブリッド辞書学習
関連論文リスト
- A Lightweight Randomized Nonlinear Dictionary Learning Method using Random Vector Functional Link [0.6138671548064356]
本稿では,ランダムベクトル関数リンク(RVFL)と呼ばれるランダム化関数リンクを用いて,非線形辞書を学習するためのSVDフリー軽量アプローチを提案する。
提案したRVFLに基づく非線形辞書学習(RVFLDL)は,非線形スパース係数から高密度入力特徴へのスパース・トゥ・デンス特徴写像として辞書を学習する。
画像分類および再構成アプリケーションで示される手法の実証的証拠は、RVFLDLはスケーラブルであり、他の非線形辞書学習法よりも優れた解を提供することを示している。
論文 参考訳(メタデータ) (2024-02-06T09:24:53Z) - Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - PUDLE: Implicit Acceleration of Dictionary Learning by Backpropagation [4.081440927534577]
本稿では,PUDLE(Provable Unfolded Dictionary LEarning)による実験結果に関する最初の理論的証明を提供する。
我々は、損失の最小化、展開、収束のバックプロパゲーションについて強調する。
合成および画像復号化実験により,本研究の成果を補完する。
論文 参考訳(メタデータ) (2021-05-31T18:49:58Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z) - DLDL: Dynamic Label Dictionary Learning via Hypergraph Regularization [17.34373273007931]
ラベルなしデータに対するソフトラベル行列を生成するための動的ラベル辞書学習(DLDL)アルゴリズムを提案する。
具体的には、原データ、変換データ、ソフトラベル間の関係の整合性を維持するために、ハイパーグラフ多様体の正規化を用いる。
論文 参考訳(メタデータ) (2020-10-23T14:07:07Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。