論文の概要: Fast Structured Orthogonal Dictionary Learning using Householder Reflections
- arxiv url: http://arxiv.org/abs/2409.09138v1
- Date: Fri, 13 Sep 2024 18:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 22:09:06.790748
- Title: Fast Structured Orthogonal Dictionary Learning using Householder Reflections
- Title(参考訳): 家庭内反射を用いた高速構造化直交辞書学習
- Authors: Anirudh Dash, Aditya Siripuram,
- Abstract要約: 理論的には($l_infty$の意味で)近似回復を最適計算複雑性で保証する。
我々は,これらの手法をサンプル限定設定で数値的に検証し,既存の手法と同等以上の性能を示す。
- 参考スコア(独自算出の注目度): 2.3326951882644553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose and investigate algorithms for the structured orthogonal dictionary learning problem. First, we investigate the case when the dictionary is a Householder matrix. We give sample complexity results and show theoretically guaranteed approximate recovery (in the $l_{\infty}$ sense) with optimal computational complexity. We then attempt to generalize these techniques when the dictionary is a product of a few Householder matrices. We numerically validate these techniques in the sample-limited setting to show performance similar to or better than existing techniques while having much improved computational complexity.
- Abstract(参考訳): 本稿では,構造化直交辞書学習問題に対するアルゴリズムの提案と検討を行う。
まず,辞書が家庭用行列である場合について検討する。
計算複雑性を最適に計算することで、サンプルの複雑性結果を与え、理論上は近似回復($l_{\infty}$ sense)が保証されることを示す。
次に、辞書がいくつかの家庭用行列の産物である場合に、これらのテクニックを一般化しようと試みる。
我々は,これらの手法をサンプル限定設定で数値的に検証し,計算複雑性を大幅に向上させながら,既存の手法と同等以上の性能を示す。
関連論文リスト
- CASET: Complexity Analysis using Simple Execution Traces for CS* submissions [0.0]
CS1 や CS2 コースで学生の提出を自動アップグレードする最も一般的な方法は、事前に定義されたテストスイートに対して実行し、結果と参照結果を比較することである。
この手法は、解の正しさが、結果を得るために使われるアルゴリズムのような単純な出力を超えると利用できない。
動的トレースと教師なし機械学習を用いてアルゴリズムの時間的複雑さを解析する新しいツールCASETを提案する。
論文 参考訳(メタデータ) (2024-10-20T15:29:50Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Learning Interpretable Queries for Explainable Image Classification with
Information Pursuit [18.089603786027503]
Information Pursuit (IP) は、データに関する解釈可能なクエリのシーケンスを欲求的に選択する説明可能な予測アルゴリズムである。
本稿では,データセットから直接解釈可能なクエリの辞書を学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-16T21:43:07Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。