論文の概要: Low-Rank Tensor Completion via Novel Sparsity-Inducing Regularizers
- arxiv url: http://arxiv.org/abs/2310.06233v1
- Date: Tue, 10 Oct 2023 01:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 02:05:23.839690
- Title: Low-Rank Tensor Completion via Novel Sparsity-Inducing Regularizers
- Title(参考訳): 新規スポーシティ誘導正則化器による低域テンソル補修
- Authors: Zhi-Yong Wang, Hing Cheung So and Abdelhak M. Zoubir
- Abstract要約: 低ランクテンソル完備化問題において、l1-ノルムを緩和するため、非ランクサロゲート/正則化器が提案されている。
これらの正則化器は核ランク復元に適用され,乗算器法に基づく効率的なアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 30.920908325825668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To alleviate the bias generated by the l1-norm in the low-rank tensor
completion problem, nonconvex surrogates/regularizers have been suggested to
replace the tensor nuclear norm, although both can achieve sparsity. However,
the thresholding functions of these nonconvex regularizers may not have
closed-form expressions and thus iterations are needed, which increases the
computational loads. To solve this issue, we devise a framework to generate
sparsity-inducing regularizers with closed-form thresholding functions. These
regularizers are applied to low-tubal-rank tensor completion, and efficient
algorithms based on the alternating direction method of multipliers are
developed. Furthermore, convergence of our methods is analyzed and it is proved
that the generated sequences are bounded and any limit point is a stationary
point. Experimental results using synthetic and real-world datasets show that
the proposed algorithms outperform the state-of-the-art methods in terms of
restoration performance.
- Abstract(参考訳): ローランクテンソル完備問題におけるl1-ノルムによるバイアスを軽減するため、非凸サロゲート/正則化器はテンソル核ノルムを置き換えることが提案されている。
しかし、これらの非凸正規化子のしきい値関数は閉形式式を持たないため、反復が必要となり、計算負荷が増加する。
この問題を解決するために,閉形式しきい値付き正規化器を生成するフレームワークを考案した。
これらの正則化器を低次テンソル完備化に適用し,乗算器の交互方向法に基づく効率的なアルゴリズムを開発した。
さらに,本手法の収束を解析し,生成配列が有界であり,任意の極限点が定常点であることを証明した。
合成および実世界のデータセットを用いた実験の結果,提案手法が復元性能の点で最先端手法よりも優れていることがわかった。
関連論文リスト
- Low-Rank Tensor Learning by Generalized Nonconvex Regularization [25.115066273660478]
低ランクテンソル学習の問題点について検討し, 基礎となるテンソルを観測するサンプルはごくわずかである。
非テンソル学習関数の族は、基礎となるテンソルの低ランク性を特徴づけるために用いられる。
結果の大量化最小化を解決するために設計されたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T03:33:20Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Robust Low-Rank Matrix Completion via a New Sparsity-Inducing
Regularizer [30.920908325825668]
本稿では,ハイブリッド常連Welsch (HOW) に新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-10-07T09:47:55Z) - Almost-sure convergence of iterates and multipliers in stochastic
sequential quadratic optimization [21.022322975077653]
等式制約付き連続最適化問題の解法が近年注目されている。
収束保証は、ゼロを測定するための勾配の期待値に制限されている。
また,SQPアルゴリズムにより生成した予備値,ラグランジュ測度,ステーション測度に対する新たなほぼ収束保証を証明した。
論文 参考訳(メタデータ) (2023-08-07T16:03:40Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Low-rank Tensor Learning with Nonconvex Overlapped Nuclear Norm
Regularization [44.54772242784423]
低ランク学習行列に対する効率的な非正規化アルゴリズムを開発した。
提案アルゴリズムは、高価な折り畳み/折り畳み問題を回避することができる。
実験の結果,提案アルゴリズムは既存の状態よりも効率的で空間が広いことがわかった。
論文 参考訳(メタデータ) (2022-05-06T07:47:10Z) - Noisy Tensor Completion via Low-rank Tensor Ring [41.86521269183527]
テンソル完了は不完全なデータ解析の基本的なツールであり、その目標は部分的な観測から欠落するエントリを予測することである。
既存の手法は、観測されたエントリがノイズフリーであるという明示的あるいは暗黙的な仮定をしばしば示し、欠落したエントリの正確な回復を理論的に保証する。
本稿では,高次・高次観測の劣化処理における既存の作業の非効率性を補完する新しいノイズテンソル補完モデルを提案する。
論文 参考訳(メタデータ) (2022-03-14T14:09:43Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。