論文の概要: Exact Sparse Orthogonal Dictionary Learning
- arxiv url: http://arxiv.org/abs/2103.09085v1
- Date: Sun, 14 Mar 2021 07:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:19:03.711384
- Title: Exact Sparse Orthogonal Dictionary Learning
- Title(参考訳): 厳密なスパース直交辞書学習
- Authors: Kai Liu, Yongjian Zhao, Hua Wang
- Abstract要約: 提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
- 参考スコア(独自算出の注目度): 8.577876545575828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, learning a dictionary from input images for sparse
modeling has been one of the topics which receive most research attention in
image processing and compressed sensing. Most existing dictionary learning
methods consider an over-complete dictionary, such as the K-SVD method, which
may result in high mutual incoherence and therefore has a negative impact in
recognition. On the other side, the sparse codes are usually optimized by
adding the $\ell_0$ or $\ell_1$-norm penalty, but with no strict sparsity
guarantee. In this paper, we propose an orthogonal dictionary learning model
which can obtain strictly sparse codes and orthogonal dictionary with global
sequence convergence guarantee. We find that our method can result in better
denoising results than over-complete dictionary based learning methods, and has
the additional advantage of high computation efficiency.
- Abstract(参考訳): 過去10年間、入力画像からの辞書の学習は、画像処理と圧縮センシングにおいて最も研究の注目を集めるトピックの1つとなっている。
既存の辞書学習法の多くは、K-SVD法のような過剰完全辞書を考慮しており、相互不整合が高く、認識に悪影響を及ぼす可能性がある。
一方、スパースコードは、通常、$\ell_0$または$\ell_1$-normのペナルティを追加することで最適化されるが、厳格なスパース性保証はない。
本稿では,厳密なスパース符号とグローバルシーケンス収束保証付き直交辞書を得られる直交辞書学習モデルを提案する。
本手法は, 辞書ベースの学習手法に比べて, 高い評価結果が得られること, 高い計算効率の利点が期待できることがわかった。
関連論文リスト
- An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Bayesian sparsity and class sparsity priors for dictionary learning and
coding [0.0]
本稿では,辞書マッチングプロセスを容易にする作業フローを提案する。
本稿では,辞書マッチングに関係のない部分辞書の同定を支援するため,ベイズ型データ駆動型グループ空間符号化手法を提案する。
辞書圧縮誤差を補正し、新規なグループ間隔プロモーションを用いて元の辞書をデフレートする効果を図示する。
論文 参考訳(メタデータ) (2023-09-02T17:54:23Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Efficient CNN with uncorrelated Bag of Features pooling [98.78384185493624]
Bag of Features (BoF)は、畳み込み層の複雑さを軽減するために最近提案されている。
本稿では,BoFプーリング上に構築した手法を用いて,学習辞書の項目が非冗長であることを保証する。
提案した戦略は、BoFの効率的な変種を生成し、追加のパラメータを使わずにその性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-22T09:00:30Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - PUDLE: Implicit Acceleration of Dictionary Learning by Backpropagation [4.081440927534577]
本稿では,PUDLE(Provable Unfolded Dictionary LEarning)による実験結果に関する最初の理論的証明を提供する。
我々は、損失の最小化、展開、収束のバックプロパゲーションについて強調する。
合成および画像復号化実験により,本研究の成果を補完する。
論文 参考訳(メタデータ) (2021-05-31T18:49:58Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - When Dictionary Learning Meets Deep Learning: Deep Dictionary Learning
and Coding Network for Image Recognition with Limited Data [74.75557280245643]
本稿では,限られたデータを用いた画像認識タスクのための新しいDeep Dictionary Learning and Coding Network(DDLCN)を提案する。
DDLCNをいくつかの主要な辞書学習手法と深層学習モデルと比較した。
5つの一般的なデータセットに対する実験結果から,DDLCNはトレーニングデータに制限がある場合の最先端手法と比較して,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-05-21T23:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。