論文の概要: An Efficient Approximate Method for Online Convolutional Dictionary
Learning
- arxiv url: http://arxiv.org/abs/2301.10583v1
- Date: Wed, 25 Jan 2023 13:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 15:10:43.504063
- Title: An Efficient Approximate Method for Online Convolutional Dictionary
Learning
- Title(参考訳): オンライン畳み込み辞書学習のための効率的な近似手法
- Authors: Farshad G. Veshki and Sergiy A. Vorobyov
- Abstract要約: トレーニングサンプルのスパース分解を取り入れた新しい近似OCDL法を提案する。
提案手法は,最先端のOCDLアルゴリズムの有効性を保ちながら,計算コストを大幅に削減する。
- 参考スコア(独自算出の注目度): 32.90534837348151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing convolutional dictionary learning (CDL) algorithms are based on
batch learning, where the dictionary filters and the convolutional sparse
representations are optimized in an alternating manner using a training
dataset. When large training datasets are used, batch CDL algorithms become
prohibitively memory-intensive. An online-learning technique is used to reduce
the memory requirements of CDL by optimizing the dictionary incrementally after
finding the sparse representations of each training sample. Nevertheless,
learning large dictionaries using the existing online CDL (OCDL) algorithms
remains highly computationally expensive. In this paper, we present a novel
approximate OCDL method that incorporates sparse decomposition of the training
samples. The resulting optimization problems are addressed using the
alternating direction method of multipliers. Extensive experimental evaluations
using several image datasets show that the proposed method substantially
reduces computational costs while preserving the effectiveness of the
state-of-the-art OCDL algorithms.
- Abstract(参考訳): 既存の畳み込み辞書学習(cdl)アルゴリズムのほとんどはバッチ学習に基づいており、辞書フィルタと畳み込みスパース表現をトレーニングデータセットを用いて交互に最適化している。
大規模なトレーニングデータセットを使用すると、バッチCDLアルゴリズムはメモリ集約的になる。
オンライン学習技術は、各トレーニングサンプルのスパース表現を検出した後、辞書を漸進的に最適化することにより、CDLのメモリ要求を低減させる。
それでも、既存のオンラインCDL(OCDL)アルゴリズムを用いて大規模な辞書を学習することは、計算コストが高いままである。
本稿では,トレーニングサンプルのスパース分解を組み込んだ近似ocdl法を提案する。
得られた最適化問題は乗算器の交互方向法を用いて解決する。
複数の画像データセットを用いた大規模な実験結果から,提案手法は最先端OCDLアルゴリズムの有効性を保ちながら,計算コストを大幅に削減することを示した。
関連論文リスト
- Learning to Retrieve Iteratively for In-Context Learning [56.40100968649039]
イテレーティブ検索は、ポリシー最適化によるイテレーティブな意思決定を可能にする、新しいフレームワークである。
テキスト内学習例を構成するための反復型検索器をインスタンス化し,様々な意味解析タスクに適用する。
ステートエンコーディングのためのパラメータを4M追加するだけで、オフザシェルフの高密度レトリバーをステートフル反復レトリバーに変換する。
論文 参考訳(メタデータ) (2024-06-20T21:07:55Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Dictionary Learning Using Rank-One Atomic Decomposition (ROAD) [6.367823813868024]
辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-25T10:29:52Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - Learning the Step-size Policy for the Limited-Memory
Broyden-Fletcher-Goldfarb-Shanno Algorithm [3.7470451129384825]
本稿では,L-BFGSアルゴリズムのステップサイズポリシの学習方法について考察する。
入力として電流勾配の局所的な情報を用いたニューラルネットワークアーキテクチャを提案する。
ステップ長ポリシは、同様の最適化問題のデータから学習され、目的関数のさらなる評価を回避し、出力ステップが予め定義された間隔内に留まることを保証します。
論文 参考訳(メタデータ) (2020-10-03T09:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。