論文の概要: Accelerating Ill-conditioned Hankel Matrix Recovery via Structured Newton-like Descent
- arxiv url: http://arxiv.org/abs/2406.07409v1
- Date: Tue, 11 Jun 2024 16:14:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:05:20.314975
- Title: Accelerating Ill-conditioned Hankel Matrix Recovery via Structured Newton-like Descent
- Title(参考訳): 構造ニュートン様蛍光によるIll条件ハンケルマトリックスの加速回収
- Authors: HanQin Cai, Longxiu Huang, Xiliang Lu, Juntao You,
- Abstract要約: そこで本研究では,ハンケル回収問題に対する非構造的類似Descent (HSNLD) アルゴリズムを提案する。
合成データセットと実データセットの両方における数値実験は、最先端のアルゴリズムに対して優れた性能を示す。
- 参考スコア(独自算出の注目度): 6.590210497991422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the robust Hankel recovery problem, which simultaneously removes the sparse outliers and fulfills missing entries from the partial observation. We propose a novel non-convex algorithm, coined Hankel Structured Newton-Like Descent (HSNLD), to tackle the robust Hankel recovery problem. HSNLD is highly efficient with linear convergence, and its convergence rate is independent of the condition number of the underlying Hankel matrix. The recovery guarantee has been established under some mild conditions. Numerical experiments on both synthetic and real datasets show the superior performance of HSNLD against state-of-the-art algorithms.
- Abstract(参考訳): 本稿では,スパースアウトレーヤを同時に除去し,部分観察から欠落した成分を満たすハンケル回収問題について検討する。
我々は,ハンケルの回復問題に対処するため,ハンケル構造型ニュートン類似Descent (HSNLD) という新しい非凸アルゴリズムを提案する。
HSNLDは線形収束が非常に効率的であり、その収束速度は基礎となるハンケル行列の条件数とは無関係である。
回復保証は幾らかの温和な条件下で確立されている。
合成データセットと実データセットの両方における数値実験は、最先端アルゴリズムに対するHSNLDの優れた性能を示している。
関連論文リスト
- Provably Accelerating Ill-Conditioned Low-rank Estimation via Scaled
Gradient Descent, Even with Overparameterization [48.65416821017865]
この章では、スケールドグラデーション(ScaledGD)と呼ばれる新しいアルゴリズムアプローチを紹介します。
低ランク物体の条件数に依存しない定数速度で直線的に収束する。
様々なタスクに対して、勾配降下の低い摂動コストを維持できる。
論文 参考訳(メタデータ) (2023-10-09T21:16:57Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - On Asymptotic Linear Convergence of Projected Gradient Descent for
Constrained Least Squares [22.851500417035947]
この写本は、制約最小二乗の文脈における射影勾配降下の解析のための統一的な枠組みを提示する。
本稿では,PGDの収束解析のレシピを提示し,このレシピを4つの基本的な問題に応用して実証する。
論文 参考訳(メタデータ) (2021-12-22T09:49:51Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Stochastic Damped L-BFGS with Controlled Norm of the Hessian
Approximation [3.0204520109309843]
最大かつ最小の固有近似上の境界の推定を利用して、その品質とコンディショニングのバランスをとる新しい分散減衰L-BFGSを提案します。
我々のVARCHENは、SdLBFGSと呼ばれる新しい減衰L-BFGSアルゴリズムを提案する以前の研究から導かれる。
VARCHEN は DavidNet の修正問題に対して SdLBFGSVR や SVRG よりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-12-10T16:19:02Z) - Low-Rank Matrix Recovery with Scaled Subgradient Methods: Fast and
Robust Convergence Without the Condition Number [34.0533596121548]
データ科学における多くの問題は、高度に不完全で、時には腐敗した観測から低いランクを推定するものとして扱われる。
1つの一般的なアプローチは行列分解に頼り、低ランク行列因子は滑らかな損失に対して一階法によって最適化される。
論文 参考訳(メタデータ) (2020-10-26T06:21:14Z) - Investigating the Scalability and Biological Plausibility of the
Activation Relaxation Algorithm [62.997667081978825]
アクティベーション・リラクシエーション(AR)アルゴリズムは、誤りアルゴリズムのバックプロパゲーションを近似するためのシンプルでロバストなアプローチを提供する。
このアルゴリズムは、学習可能な後方重みセットを導入することにより、さらに単純化され、生物学的に検証可能であることを示す。
また、元のARアルゴリズム(凍結フィードフォワードパス)の別の生物学的に信じられない仮定が、パフォーマンスを損なうことなく緩和できるかどうかについても検討する。
論文 参考訳(メタデータ) (2020-10-13T08:02:38Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Recovering Joint Probability of Discrete Random Variables from Pairwise
Marginals [22.77704627076251]
確率変数(RV)の合同確率の学習は、統計信号処理と機械学習の基盤となる。
近年, 任意の数の RV の結合確率質量関数 (PMF) を3次元境界から復元する研究が提案されている。
正確に3次元の辺縁を推定することは、標本の複雑さの観点からもコストがかかる。
この研究は、ペアの辺りだけを用いて共同PMFを学習するための新しい枠組みを生み出した。
論文 参考訳(メタデータ) (2020-06-30T15:43:44Z) - On the Convergence of Stochastic Gradient Descent with Low-Rank
Projections for Convex Low-Rank Matrix Problems [19.24470467199451]
本研究では, 凸緩和に有効な凸最適化問題の解法として, SGD (Gradient Descent) の利用を再検討する。
我々は,SGDが低ランク行列回復問題の大規模凸緩和に実際に適用可能であることを示した。
論文 参考訳(メタデータ) (2020-01-31T06:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。