論文の概要: Dictionary Learning Using Rank-One Atomic Decomposition (ROAD)
- arxiv url: http://arxiv.org/abs/2110.12786v1
- Date: Mon, 25 Oct 2021 10:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:24:59.486090
- Title: Dictionary Learning Using Rank-One Atomic Decomposition (ROAD)
- Title(参考訳): ランクワン原子分解(ROAD)を用いた辞書学習
- Authors: Cheng Cheng and Wei Dai
- Abstract要約: 辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
- 参考スコア(独自算出の注目度): 6.367823813868024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dictionary learning aims at seeking a dictionary under which the training
data can be sparsely represented. Methods in the literature typically formulate
the dictionary learning problem as an optimization w.r.t. two variables, i.e.,
dictionary and sparse coefficients, and solve it by alternating between two
stages: sparse coding and dictionary update. The key contribution of this work
is a Rank-One Atomic Decomposition (ROAD) formulation where dictionary learning
is cast as an optimization w.r.t. a single variable which is a set of rank one
matrices. The resulting algorithm is hence single-stage. Compared with
two-stage algorithms, ROAD minimizes the sparsity of the coefficients whilst
keeping the data consistency constraint throughout the whole learning process.
An alternating direction method of multipliers (ADMM) is derived to solve the
optimization problem and the lower bound of the penalty parameter is computed
to guarantees a global convergence despite non-convexity of the optimization
formulation. From practical point of view, ROAD reduces the number of tuning
parameters required in other benchmark algorithms. Numerical tests demonstrate
that ROAD outperforms other benchmark algorithms for both synthetic data and
real data, especially when the number of training samples is small.
- Abstract(参考訳): 辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
文献の方法は通常、辞書学習問題を2つの変数、すなわち辞書とスパース係数として定式化し、スパース符号と辞書更新の2つの段階を交互に交互に組み合わせて解決する。
この研究の重要な貢献は、ランク1の原子分解(road)形式であり、辞書学習をランク1の行列の集合である1つの変数の最適化w.r.t.としてキャストする。
結果として得られるアルゴリズムは単段である。
2段階のアルゴリズムと比較して、ROADは学習プロセス全体を通してデータ一貫性の制約を保ちながら係数の空間性を最小化する。
最適化問題を解くために乗算器の交互方向法(ADMM)を導出し、最適化定式化の非凸性にもかかわらず大域収束を保証するためにペナルティパラメータの下限を計算する。
実用的な観点からすると、ROADは他のベンチマークアルゴリズムに必要なチューニングパラメータの数を減らすことができる。
数値テストでは、特にトレーニングサンプルの数が少ない場合には、ロードが合成データと実データの両方のベンチマークアルゴリズムを上回っていることが示されている。
関連論文リスト
- Faster WIND: Accelerating Iterative Best-of-$N$ Distillation for LLM Alignment [81.84950252537618]
本稿では,反復的BONDと自己プレイアライメントの統一的なゲーム理論接続を明らかにする。
WINレート支配(WIN rate Dominance, WIND)という新しいフレームワークを構築し, 正規化利率支配最適化のためのアルゴリズムを多数提案する。
論文 参考訳(メタデータ) (2024-10-28T04:47:39Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Simple Alternating Minimization Provably Solves Complete Dictionary
Learning [13.056764072568749]
本稿では、与えられた信号の集合を学習辞書からの原子の線形結合として再パラメータ化することを目的とする完全な辞書問題に焦点を当てる。
理論的および実践的な辞書学習には、実用的なアルゴリズムに対する理論的保証の欠如と、大規模データセットを扱う際のスケーラビリティの低下という2つの大きな課題がある。
論文 参考訳(メタデータ) (2022-10-23T18:30:45Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Efficient Sparse Coding using Hierarchical Riemannian Pursuit [2.4087148947930634]
スパース符号化は、辞書と符号の線形結合の形で入力データの表現を学ぶための監視されていない方法のクラスである。
完全辞書を用いたスパース符号化タスクのための効率的な合成状態スキームを提案する。
論文 参考訳(メタデータ) (2021-04-21T02:16:44Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。