論文の概要: Kernel Recursive Least Squares Dictionary Learning Algorithm
- arxiv url: http://arxiv.org/abs/2507.01636v1
- Date: Wed, 02 Jul 2025 12:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.186815
- Title: Kernel Recursive Least Squares Dictionary Learning Algorithm
- Title(参考訳): Kernel Recursive Least Squares Dictionary Learning Algorithm
- Authors: Ghasem Alipoor, Karl Skretting,
- Abstract要約: カーネルベーススパース表現のための効率的なオンライン辞書学習アルゴリズムを提案する。
この枠組みでは、入力信号を高次元の特徴空間に非線形にマッピングし、仮想辞書を用いて疎表現する。
- 参考スコア(独自算出の注目度): 2.5782420501870296
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose an efficient online dictionary learning algorithm for kernel-based sparse representations. In this framework, input signals are nonlinearly mapped to a high-dimensional feature space and represented sparsely using a virtual dictionary. At each step, the dictionary is updated recursively using a novel algorithm based on the recursive least squares (RLS) method. This update mechanism works with single samples or mini-batches and maintains low computational complexity. Experiments on four datasets across different domains show that our method not only outperforms existing online kernel dictionary learning approaches but also achieves classification accuracy close to that of batch-trained models, while remaining significantly more efficient.
- Abstract(参考訳): カーネルベーススパース表現のための効率的なオンライン辞書学習アルゴリズムを提案する。
この枠組みでは、入力信号を高次元の特徴空間に非線形にマッピングし、仮想辞書を用いて疎表現する。
各ステップで、再帰最小二乗法(RLS)に基づく新しいアルゴリズムを用いて、辞書を再帰的に更新する。
この更新メカニズムは、単一のサンプルまたはミニバッチで動作し、低い計算複雑性を維持する。
異なる領域にまたがる4つのデータセットの実験により、我々の手法は既存のオンラインカーネル辞書学習手法に勝るだけでなく、バッチ学習モデルに近い分類精度を達成できる一方で、より効率的であることを示す。
関連論文リスト
- Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - Simple Alternating Minimization Provably Solves Complete Dictionary Learning [17.68684502400794]
本稿では,ノイズ完全辞書学習問題に焦点をあてる。
目的は、与えられた信号の集合を、学習された辞書から少数の原子の線形結合として表現することである。
論文 参考訳(メタデータ) (2022-10-23T18:30:45Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Online Orthogonal Dictionary Learning Based on Frank-Wolfe Method [3.198144010381572]
辞書学習は信号処理や機械学習で広く使われている教師なし学習手法である。
提案手法は,新しい問題定式化と収束解析を用いた効率的なオンラインアルゴリズム設計を含む。
合成データと実世界のセンサ読み取り実験により,提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-03-02T05:49:23Z) - Accelerating Text Mining Using Domain-Specific Stop Word Lists [57.76576681191192]
本稿では,超平面的アプローチと呼ばれるドメイン固有語の自動抽出手法を提案する。
ハイパープレーンベースのアプローチは、無関係な特徴を排除することによって、テキストの寸法を著しく削減することができる。
その結果,超平面型アプローチはコーパスの寸法を90%削減し,相互情報より優れることがわかった。
論文 参考訳(メタデータ) (2020-11-18T17:42:32Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。