論文の概要: Generalization Bounds for Inductive Matrix Completion in Low-noise
Settings
- arxiv url: http://arxiv.org/abs/2212.08339v1
- Date: Fri, 16 Dec 2022 08:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:47:37.055572
- Title: Generalization Bounds for Inductive Matrix Completion in Low-noise
Settings
- Title(参考訳): 低雑音環境における誘導行列補完のための一般化境界
- Authors: Antoine Ledent, Rodrigo Alves, Yunwen Lei, Yann Guermeur and Marius
Kloft
- Abstract要約: I.d.サブガウス雑音仮定の下で帰納的行列補完(側情報付き行列完備化)について検討する。
初めて、次の3つの性質で有界な一般化が得られる。
- 参考スコア(独自算出の注目度): 46.82705757568271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study inductive matrix completion (matrix completion with side
information) under an i.i.d. subgaussian noise assumption at a low noise
regime, with uniform sampling of the entries. We obtain for the first time
generalization bounds with the following three properties: (1) they scale like
the standard deviation of the noise and in particular approach zero in the
exact recovery case; (2) even in the presence of noise, they converge to zero
when the sample size approaches infinity; and (3) for a fixed dimension of the
side information, they only have a logarithmic dependence on the size of the
matrix. Differently from many works in approximate recovery, we present results
both for bounded Lipschitz losses and for the absolute loss, with the latter
relying on Talagrand-type inequalities. The proofs create a bridge between two
approaches to the theoretical analysis of matrix completion, since they consist
in a combination of techniques from both the exact recovery literature and the
approximate recovery literature.
- Abstract(参考訳): 本研究では,低雑音環境下でのサブガウス雑音仮定の下でのインダクティブ行列完備化(サイド情報付き行列完備化)について一様サンプリングにより検討した。
その結果,(1)ノイズの標準偏差のようにスケールし,(2)完全回復の場合ではゼロに接近する,(2) サンプルサイズが無限に近づくとゼロに収束する,(3) サイド情報の固定次元では行列の大きさにのみ対数依存する,という3つの特性を持つ一般化が得られた。
近似回復における多くの研究と異なり、我々は有界リプシッツ損失と絶対損失の両方について結果を提示し、後者はタラグラッド型不等式に依存する。
これらの証明は、正確な回復文献と近似回復文献の両方の技法の組み合わせからなるため、行列完備化の理論的解析に対する2つのアプローチの間の橋渡しとなる。
関連論文リスト
- Non-convex matrix sensing: Breaking the quadratic rank barrier in the sample complexity [11.412228884390784]
いくつかの測定値から低ランク2次凸行列を再構成する問題について検討した。
スペクトル特異性を持つ分解勾配は標本数と真理に収束することを示す。
論文 参考訳(メタデータ) (2024-08-20T14:09:28Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Matrix Denoising with Doubly Heteroscedastic Noise: Fundamental Limits and Optimal Spectral Methods [24.06775799553418]
本研究では,列相関と列相関の両方でノイズによって劣化したランク1$の信号の特異ベクトルを推定する行列記述問題について検討する。
本研究は,2つのヘテロセダスティックノイズを重畳した行列の,情報理論的およびアルゴリズム的限界を確立する。
論文 参考訳(メタデータ) (2024-05-22T18:38:10Z) - Concentration properties of fractional posterior in 1-bit matrix completion [0.0]
この研究は、しばしば1ビット行列完備化と呼ばれるバイナリ観測のシナリオに特に対処する。
一般の非一様サンプリング方式を考慮し、分数後方の有効性に関する理論的保証を提供することにより、このギャップに対処する。
我々の結果は、頻繁な文献に見られるものと同等であるが、制限的な仮定は少ない。
論文 参考訳(メタデータ) (2024-04-13T11:22:53Z) - Critical Points and Convergence Analysis of Generative Deep Linear
Networks Trained with Bures-Wasserstein Loss [2.294014185517203]
本稿では,バーレス=ヴァッサーシュタイン距離で学習した共分散行列の行列分解モデルについて考察する。
階数有界行列の空間上のバーレス=ヴァッサーシュタイン距離の臨界点と最小化器を特徴づける。
有限段勾配勾配のスムーズな摂動バージョンを用いて勾配流の収束結果を確立する。
論文 参考訳(メタデータ) (2023-03-06T10:56:14Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Global Convergence of Sub-gradient Method for Robust Matrix Recovery:
Small Initialization, Noisy Measurements, and Over-parameterization [4.7464518249313805]
サブグラディエント法(Sub-gradient method, SubGM)は, 限られた測定値から低ランク行列を復元するために用いられる。
我々は、SubGMが任意の大きさの高密度ノイズ値の下でも、真の解に収束することを示す。
論文 参考訳(メタデータ) (2022-02-17T17:50:04Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable
Embeddings with Generative Priors [52.06292503723978]
生成モデルを用いた圧縮センシングの進歩により, 生成モデルを用いた1ビット圧縮センシングの問題点を考察した。
まずノイズのない1ビット測定を考察し, ガウス測度に基づく近似回復のためのサンプル複雑性境界を提供する。
また,リプシッツ連続生成モデルを用いた1ビット圧縮センシングにも有効であることを示すため,評価誤差と雑音に対する再構成の堅牢性を示すBinary $epsilon$-Stable Embedding特性を実証した。
論文 参考訳(メタデータ) (2020-02-05T09:44:10Z) - Relative Error Bound Analysis for Nuclear Norm Regularized Matrix Completion [101.83262280224729]
我々は、原子核ノルム正規化行列補完に対する相対誤差を開発する。
未知行列の最適低ランク近似を回復するための相対上界を導出する。
論文 参考訳(メタデータ) (2015-04-26T13:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。