論文の概要: Greedier is Better: Selecting Multiple Neighbors per Iteration for
Sparse Subspace Clustering
- arxiv url: http://arxiv.org/abs/2204.02572v1
- Date: Wed, 6 Apr 2022 04:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:59:40.895925
- Title: Greedier is Better: Selecting Multiple Neighbors per Iteration for
Sparse Subspace Clustering
- Title(参考訳): Greedierが改善 - スパースサブスペースクラスタリングのためのイテレーション毎に複数の隣人を選択する
- Authors: Jwo-Yuh Wu, Liang-Chi Huang, Wen-Hsuan Li, Chun-Hung Liu, and
Rung-Hung Gau
- Abstract要約: 本稿では,一般化OMP(GOMP)を用いた新しいSSC方式を提案する。
GOMPはイテレーションが少ないため、アルゴリズムの複雑さが低い。
提案した停止規則は,部分空間次元と雑音パワーのオフライン推定が不要である。
- 参考スコア(独自算出の注目度): 18.888312436971187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse subspace clustering (SSC) using greedy-based neighbor selection, such
as orthogonal matching pursuit (OMP), has been known as a popular
computationally-efficient alternative to the popular L1-minimization based
methods. This paper proposes a new SSC scheme using generalized OMP (GOMP), a
soup-up of OMP whereby multiple neighbors are identified per iteration, along
with a new stopping rule requiring nothing more than a knowledge of the ambient
signal dimension. Compared to conventional OMP, which identifies one neighbor
per iteration, the proposed GOMP method involves fewer iterations, thereby
enjoying lower algorithmic complexity; advantageously, the proposed stopping
rule is free from off-line estimation of subspace dimension and noise power.
Under the semi-random model, analytic performance guarantees, in terms of
neighbor recovery rates, are established to justify the advantage of the
proposed GOMP. The results show that, with a high probability, GOMP (i) is
halted by the proposed stopping rule, and (ii) can retrieve more true neighbors
than OMP, consequently yielding higher final data clustering accuracy. Computer
simulations using both synthetic data and real human face data are provided to
validate our analytic study and evidence the effectiveness of the proposed
approach.
- Abstract(参考訳): sparse subspace clustering (ssc) は、直交マッチング追跡 (omp) のような欲望に基づく隣人選択を用いており、一般的なl1最小化法に代わる計算効率の高い代替法として有名である。
本稿では,ompのスープアップであるgeneralized omp(gomp)を用いた新しいssc方式を提案する。
提案手法は, 1イテレーションごとに1つの隣り合わせを識別する従来のOMPと比較して, 提案手法はイテレーションを少なくし, アルゴリズムの複雑さを低減し, 有利に, 提案した停止規則は, 部分空間次元と雑音パワーのオフライン推定が不要である。
半ランダムモデルの下では,提案したGOMPの利点を正当化するために,隣接する回復率の観点から解析性能保証を確立する。
その結果,高い確率でGOMPが得られた。
i) 提案された停止規則により停止し、
(ii) OMPよりも真の隣人を検索できるため、最終的なデータのクラスタリング精度が高い。
提案手法の有効性を検証するために,合成データと実顔データの両方を用いた計算機シミュレーションを行った。
関連論文リスト
- Efficient Learning of POMDPs with Known Observation Model in Average-Reward Setting [56.92178753201331]
我々は,POMDPパラメータを信念に基づくポリシを用いて収集したサンプルから学習することのできる観測・認識スペクトル(OAS)推定手法を提案する。
提案するOAS-UCRLアルゴリズムに対して,OASプロシージャの整合性を示し,$mathcalO(sqrtT log(T)$の残差保証を証明した。
論文 参考訳(メタデータ) (2024-10-02T08:46:34Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Fast OMP for Exact Recovery and Sparse Approximation [4.915061940934031]
本論文は, オリゴナル・マッチング・パースーツ(OMP)を2つの面で前進させる。
各イテレーションで入力信号の投影を高速に行うアルゴリズムと、グリーディ選択のための新しい選択基準を提供する。
実験結果は計算時間において古典的なOMPよりも大幅に改善したことを示している。
論文 参考訳(メタデータ) (2024-03-29T20:39:37Z) - Privacy Amplification for Matrix Mechanisms [18.13715687378337]
MMCCは、一般的な行列機構のサンプリングにより、プライバシの増幅を分析する最初のアルゴリズムである。
標準ベンチマークにおけるDP-FTRLアルゴリズムのプライバシ・ユーティリティトレードオフが大幅に改善されることを示す。
論文 参考訳(メタデータ) (2023-10-24T05:16:52Z) - Distributed Adaptive Nearest Neighbor Classifier: Algorithm and Theory [6.696267547013535]
そこで本研究では,データ駆動基準によりパラメータ選択された,近接する隣人の数がパラメータとなる分散適応型NN分類器を提案する。
有限標本性能を向上する最適チューニングパラメータを探索する際,早期停止規則を提案する。
特に、サブサンプルサイズが十分に大きい場合、提案した分類器がほぼ最適な収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-05-20T14:38:41Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Provable Noisy Sparse Subspace Clustering using Greedy Neighbor
Selection: A Coherence-Based Perspective [18.888312436971187]
我々は,MP/OMPを用いた適切な隣接同定を保証するためのコヒーレンスに基づく十分な条件を導出する。
驚くべき発見は、基底の真理部分空間が互いによく分離され、ノイズがそれほど大きくない場合、MPベースの繰り返しはアルゴリズムの複雑さが小さくなり、残余の摂動が小さくなることである。
論文 参考訳(メタデータ) (2020-02-02T14:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。