論文の概要: Dictionary Learning with Convex Update (ROMD)
- arxiv url: http://arxiv.org/abs/2110.06641v1
- Date: Wed, 13 Oct 2021 11:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:49:32.464083
- Title: Dictionary Learning with Convex Update (ROMD)
- Title(参考訳): Convex Update (ROMD) を用いた辞書学習
- Authors: Cheng Cheng and Wei Dai
- Abstract要約: ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
- 参考スコア(独自算出の注目度): 6.367823813868024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dictionary learning aims to find a dictionary under which the training data
can be sparsely represented, and it is usually achieved by iteratively applying
two stages: sparse coding and dictionary update. Typical methods for dictionary
update focuses on refining both dictionary atoms and their corresponding sparse
coefficients by using the sparsity patterns obtained from sparse coding stage,
and hence it is a non-convex bilinear inverse problem. In this paper, we
propose a Rank-One Matrix Decomposition (ROMD) algorithm to recast this
challenge into a convex problem by resolving these two variables into a set of
rank-one matrices. Different from methods in the literature, ROMD updates the
whole dictionary at a time using convex programming. The advantages hence
include both convergence guarantees for dictionary update and faster
convergence of the whole dictionary learning. The performance of ROMD is
compared with other benchmark dictionary learning algorithms. The results show
the improvement of ROMD in recovery accuracy, especially in the cases of high
sparsity level and fewer observation data.
- Abstract(参考訳): 辞書学習は、訓練データを疎に表現できる辞書を見つけることを目的としており、通常、スパースコーディングと辞書更新の2段階を反復的に適用することで達成される。
辞書更新の典型的な方法は、スパース符号化段階から得られたスパースパターンを用いて辞書原子とその対応するスパース係数の精製に焦点を当て、非凸双線形逆問題である。
本稿では,これら2変数を一組のランク1行列に分解することにより,この問題を凸問題に再キャストするROMDアルゴリズムを提案する。
文献の方法と異なり、ROMDは凸プログラミングを用いて辞書全体を一度に更新する。
したがって、辞書更新の収束保証と辞書学習全体の高速収束の両方が利点である。
ROMDの性能は他のベンチマーク辞書学習アルゴリズムと比較する。
以上の結果から,特に高頻度で観測データが少ない場合におけるROMDの回復精度の向上が示唆された。
関連論文リスト
- Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Bayesian sparsity and class sparsity priors for dictionary learning and
coding [0.0]
本稿では,辞書マッチングプロセスを容易にする作業フローを提案する。
本稿では,辞書マッチングに関係のない部分辞書の同定を支援するため,ベイズ型データ駆動型グループ空間符号化手法を提案する。
辞書圧縮誤差を補正し、新規なグループ間隔プロモーションを用いて元の辞書をデフレートする効果を図示する。
論文 参考訳(メタデータ) (2023-09-02T17:54:23Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Efficient CNN with uncorrelated Bag of Features pooling [98.78384185493624]
Bag of Features (BoF)は、畳み込み層の複雑さを軽減するために最近提案されている。
本稿では,BoFプーリング上に構築した手法を用いて,学習辞書の項目が非冗長であることを保証する。
提案した戦略は、BoFの効率的な変種を生成し、追加のパラメータを使わずにその性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-22T09:00:30Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Dictionary Learning Using Rank-One Atomic Decomposition (ROAD) [6.367823813868024]
辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-25T10:29:52Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z) - Accelerating Text Mining Using Domain-Specific Stop Word Lists [57.76576681191192]
本稿では,超平面的アプローチと呼ばれるドメイン固有語の自動抽出手法を提案する。
ハイパープレーンベースのアプローチは、無関係な特徴を排除することによって、テキストの寸法を著しく削減することができる。
その結果,超平面型アプローチはコーパスの寸法を90%削減し,相互情報より優れることがわかった。
論文 参考訳(メタデータ) (2020-11-18T17:42:32Z) - When Dictionary Learning Meets Deep Learning: Deep Dictionary Learning
and Coding Network for Image Recognition with Limited Data [74.75557280245643]
本稿では,限られたデータを用いた画像認識タスクのための新しいDeep Dictionary Learning and Coding Network(DDLCN)を提案する。
DDLCNをいくつかの主要な辞書学習手法と深層学習モデルと比較した。
5つの一般的なデータセットに対する実験結果から,DDLCNはトレーニングデータに制限がある場合の最先端手法と比較して,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-05-21T23:12:10Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。