論文の概要: Convergence of alternating minimisation algorithms for dictionary
learning
- arxiv url: http://arxiv.org/abs/2304.01768v2
- Date: Fri, 26 May 2023 08:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 20:24:38.203084
- Title: Convergence of alternating minimisation algorithms for dictionary
learning
- Title(参考訳): 辞書学習における交互最小化アルゴリズムの収束
- Authors: Simon Ruetz and Karin Schnass
- Abstract要約: 辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
- 参考スコア(独自算出の注目度): 4.5687771576879594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we derive sufficient conditions for the convergence of two
popular alternating minimisation algorithms for dictionary learning - the
Method of Optimal Directions (MOD) and Online Dictionary Learning (ODL), which
can also be thought of as approximative K-SVD. We show that given a
well-behaved initialisation that is either within distance at most $1/\log(K)$
to the generating dictionary or has a special structure ensuring that each
element of the initialisation only points to one generating element, both
algorithms will converge with geometric convergence rate to the generating
dictionary. This is done even for data models with non-uniform distributions on
the supports of the sparse coefficients. These allow the appearance frequency
of the dictionary elements to vary heavily and thus model real data more
closely.
- Abstract(参考訳): 本稿では,辞書学習のための2つの交互最小化アルゴリズム - 最適方向法 (mod) とオンライン辞書学習 (odl) - が収束するのに十分な条件を導出する。
1/\log(k)$以上で生成辞書との距離内にあるよく整備された初期化が与えられた場合、または、初期化の各要素が1つの生成要素のみを指し示すように特別な構造を持つ場合、どちらのアルゴリズムも生成辞書への幾何収束率で収束する。
これはスパース係数の支持に一様でない分布を持つデータモデルに対しても行われる。
これにより辞書要素の出現頻度が大きく変化し、実データをより密接にモデル化することができる。
関連論文リスト
- Lightweight Conceptual Dictionary Learning for Text Classification Using Information Compression [15.460141768587663]
データ圧縮と表現に基づくテキスト分類のための軽量な教師付き辞書学習フレームワークを提案する。
我々は,情報ボトルネックの原理を用いて情報理論性能を評価し,情報理論性能を定量化するための新しい指標として情報平面面積ランク(IPAR)を導入する。
論文 参考訳(メタデータ) (2024-04-28T10:11:52Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Dictionary Learning Using Rank-One Atomic Decomposition (ROAD) [6.367823813868024]
辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-25T10:29:52Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Finding Geometric Models by Clustering in the Consensus Space [61.65661010039768]
本稿では,未知数の幾何学的モデル,例えばホモグラフィーを求めるアルゴリズムを提案する。
複数の幾何モデルを用いることで精度が向上するアプリケーションをいくつか提示する。
これには、複数の一般化されたホモグラフからのポーズ推定、高速移動物体の軌道推定が含まれる。
論文 参考訳(メタデータ) (2021-03-25T14:35:07Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。