論文の概要: Efficient Sparse Coding using Hierarchical Riemannian Pursuit
- arxiv url: http://arxiv.org/abs/2104.10314v1
- Date: Wed, 21 Apr 2021 02:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 00:21:39.116053
- Title: Efficient Sparse Coding using Hierarchical Riemannian Pursuit
- Title(参考訳): 階層的リーマン追従を用いた効率的なスパース符号化
- Authors: Ye Xue, Vincent Lau, and Songfu Cai
- Abstract要約: スパース符号化は、辞書と符号の線形結合の形で入力データの表現を学ぶための監視されていない方法のクラスである。
完全辞書を用いたスパース符号化タスクのための効率的な合成状態スキームを提案する。
- 参考スコア(独自算出の注目度): 2.4087148947930634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse coding is a class of unsupervised methods for learning a sparse
representation of the input data in the form of a linear combination of a
dictionary and a sparse code. This learning framework has led to
state-of-the-art results in various image and video processing tasks. However,
classical methods learn the dictionary and the sparse code based on alternative
optimizations, usually without theoretical guarantees for either optimality or
convergence due to non-convexity of the problem. Recent works on sparse coding
with a complete dictionary provide strong theoretical guarantees thanks to the
development of the non-convex optimization. However, initial non-convex
approaches learn the dictionary in the sparse coding problem sequentially in an
atom-by-atom manner, which leads to a long execution time. More recent works
seek to directly learn the entire dictionary at once, which substantially
reduces the execution time. However, the associated recovery performance is
degraded with a finite number of data samples. In this paper, we propose an
efficient sparse coding scheme with a two-stage optimization. The proposed
scheme leverages the global and local Riemannian geometry of the two-stage
optimization problem and facilitates fast implementation for superb dictionary
recovery performance by a finite number of samples without atom-by-atom
calculation. We further prove that, with high probability, the proposed scheme
can exactly recover any atom in the target dictionary with a finite number of
samples if it is adopted to recover one atom of the dictionary. An application
on wireless sensor data compression is also proposed. Experiments on both
synthetic and real-world data verify the efficiency and effectiveness of the
proposed scheme.
- Abstract(参考訳): スパースコーディング(英: Sparse coding)とは、辞書とスパースコードの線形結合という形で入力データのスパース表現を学習する教師なしの手法のクラスである。
この学習フレームワークは、様々な画像およびビデオ処理タスクにおいて最先端の結果をもたらす。
しかし、古典的な手法は、他の最適化に基づいて辞書とスパースコードを学習し、通常は問題の非凸性による最適性または収束性の理論的保証がない。
完全辞書を用いたスパース符号化に関する最近の研究は、非凸最適化の開発により、強力な理論的保証を提供する。
しかし、初期の非凸アプローチは、原子単位の方法でスパース符号化問題において辞書を逐次学習し、長い実行時間をもたらす。
より最近の研究は、辞書全体を一度に学習し、実行時間を大幅に短縮しようとしている。
しかし、関連するリカバリ性能は、有限個のデータサンプルで劣化する。
本稿では,二段階最適化による効率的なスパース符号化方式を提案する。
提案手法は,2段階最適化問題の大域的および局所的なリーマン幾何学を応用し,原子単位の計算を行わない有限個の試料によるスーパーブ辞書復元性能の高速化を実現する。
さらに、高い確率で、提案手法は、辞書の1つの原子を復元するために適用された場合、ターゲット辞書の原子を有限個のサンプルで正確に回収できることを示す。
無線センサデータ圧縮に関するアプリケーションも提案している。
合成データと実世界のデータの両方を用いて,提案手法の有効性と有効性を検証する。
関連論文リスト
- Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Simple Alternating Minimization Provably Solves Complete Dictionary
Learning [13.056764072568749]
本稿では、与えられた信号の集合を学習辞書からの原子の線形結合として再パラメータ化することを目的とする完全な辞書問題に焦点を当てる。
理論的および実践的な辞書学習には、実用的なアルゴリズムに対する理論的保証の欠如と、大規模データセットを扱う際のスケーラビリティの低下という2つの大きな課題がある。
論文 参考訳(メタデータ) (2022-10-23T18:30:45Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Dictionary Learning Using Rank-One Atomic Decomposition (ROAD) [6.367823813868024]
辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-25T10:29:52Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation [9.005280130480308]
2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
論文 参考訳(メタデータ) (2021-06-29T12:19:07Z) - Dictionary Learning with Low-rank Coding Coefficients for Tensor
Completion [33.068635237011236]
我々のモデルは、与えられた観測結果からデータ適応辞書を学習することである。
完了過程において、符号化係数を含む各テンソルスライスの低ランク化を最小化する。
論文 参考訳(メタデータ) (2020-09-26T02:43:43Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。