論文の概要: Atom dimension adaptation for infinite set dictionary learning
- arxiv url: http://arxiv.org/abs/2409.06831v1
- Date: Tue, 10 Sep 2024 19:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 16:29:39.509928
- Title: Atom dimension adaptation for infinite set dictionary learning
- Title(参考訳): 無限集合辞書学習のための原子次元適応
- Authors: Andra Băltoiu, Denis C. Ilie-Ablachim, Bogdan Dumitrescu,
- Abstract要約: 辞書学習における集合原子のサイズを適応的に調整する手法を提案する。
提案アルゴリズムは表現誤差を低減させるだけでなく,異常検出も改善する。
- 参考スコア(独自算出の注目度): 0.6554326244334866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on dictionary learning with set-atoms has shown benefits in anomaly detection. Instead of viewing an atom as a single vector, these methods allow building sparse representations with atoms taken from a set around a central vector; the set can be a cone or may have a probability distribution associated to it. We propose a method for adaptively adjusting the size of set-atoms in Gaussian and cone dictionary learning. The purpose of the algorithm is to match the atom sizes with their contribution in representing the signals. The proposed algorithm not only decreases the representation error, but also improves anomaly detection, for a class of anomalies called `dependency'. We obtain better detection performance than state-of-the-art methods.
- Abstract(参考訳): 集合原子を用いた辞書学習に関する最近の研究は、異常検出の利点を示している。
これらの方法では、原子を単一のベクトルと見なす代わりに、中心ベクトルの周りの集合から取られた原子でスパース表現を構築することができる。
本稿では,ガウス語とコーン語の辞書学習において,集合原子のサイズを適応的に調整する手法を提案する。
このアルゴリズムの目的は、原子の大きさと信号の表現への寄与とを一致させることである。
提案アルゴリズムは表現誤差を低減させるだけでなく,'dependency'と呼ばれる異常のクラスに対する異常検出も改善する。
我々は最先端手法よりも優れた検出性能を得る。
関連論文リスト
- Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Efficient algorithms to solve atom reconfiguration problems. II. The
assignment-rerouting-ordering (aro) algorithm [51.02512563152503]
原子再構成問題は原子の問題を迅速かつ効率的に解く必要がある。
原子再構成問題を解決する典型的なアプローチは、どの原子をどのトラップに移動させるかを決定する代入アルゴリズムを使用することである。
このアプローチは、置換原子の数や各原子が置換される回数を最適化しない。
原子再構成問題の解法において,代入型アルゴリズムの性能を向上させるために,代入型順序付けアルゴリズム(aro)を提案する。
論文 参考訳(メタデータ) (2022-12-11T19:48:25Z) - Efficient algorithms to solve atom reconfiguration problems. I. The
redistribution-reconfiguration (red-rec) algorithm [51.02512563152503]
我々は,損失の有無にかかわらず,Red-Recアルゴリズムの性能を数値的に定量化する。
所望の原子数の3/2パワーとして, 平均成功確率を半分に設定した格子上の原子のコンパクトな中心配置に必要なトラップ数を示す。
Red-recアルゴリズムは、リアルタイム制御システムに容易にデプロイできる効率的な実装を認めている。
論文 参考訳(メタデータ) (2022-12-07T19:00:01Z) - Simple Alternating Minimization Provably Solves Complete Dictionary
Learning [13.056764072568749]
本稿では、与えられた信号の集合を学習辞書からの原子の線形結合として再パラメータ化することを目的とする完全な辞書問題に焦点を当てる。
理論的および実践的な辞書学習には、実用的なアルゴリズムに対する理論的保証の欠如と、大規模データセットを扱う際のスケーラビリティの低下という2つの大きな課題がある。
論文 参考訳(メタデータ) (2022-10-23T18:30:45Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Dictionary Learning Using Rank-One Atomic Decomposition (ROAD) [6.367823813868024]
辞書学習は、訓練データを疎に表現できる辞書を求めることを目的としている。
Roadは、合成データと実データの両方で、他のベンチマークアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-25T10:29:52Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - Kernel Density Estimation by Stagewise Algorithm with a Simple
Dictionary [0.0]
本稿では,U-divergenceの簡単な辞書を用いて,ステージワイズアルゴリズムによるカーネル密度推定について検討する。
i.d.サンプルをランダムに2つの非結合集合に分割し,その1つは辞書内のカーネルを構築するためのもので,もう1つは推定器を評価するためのものである。
論文 参考訳(メタデータ) (2021-07-27T17:05:06Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z) - Sparse Optimization on General Atomic Sets: Greedy and Forward-Backward
Algorithms [0.0]
我々は, 疎性を維持しつつ, 強近似保証を達成できることを, 欲求アルゴリズムが示す。
特に、多くの興味のある設定において、グレディアルゴリズムは、疎性を維持しながら強い近似を保証することができることを示す。
第二に、弱部分モジュラー性という別の概念を定義し、より親しみやすいバージョンと密接に関連していることが示される。
論文 参考訳(メタデータ) (2019-12-26T20:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。