論文の概要: Generalization Bounds for Inductive Matrix Completion in Low-noise
Settings
- arxiv url: http://arxiv.org/abs/2212.08339v1
- Date: Fri, 16 Dec 2022 08:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:47:37.055572
- Title: Generalization Bounds for Inductive Matrix Completion in Low-noise
Settings
- Title(参考訳): 低雑音環境における誘導行列補完のための一般化境界
- Authors: Antoine Ledent, Rodrigo Alves, Yunwen Lei, Yann Guermeur and Marius
Kloft
- Abstract要約: I.d.サブガウス雑音仮定の下で帰納的行列補完(側情報付き行列完備化)について検討する。
初めて、次の3つの性質で有界な一般化が得られる。
- 参考スコア(独自算出の注目度): 46.82705757568271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study inductive matrix completion (matrix completion with side
information) under an i.i.d. subgaussian noise assumption at a low noise
regime, with uniform sampling of the entries. We obtain for the first time
generalization bounds with the following three properties: (1) they scale like
the standard deviation of the noise and in particular approach zero in the
exact recovery case; (2) even in the presence of noise, they converge to zero
when the sample size approaches infinity; and (3) for a fixed dimension of the
side information, they only have a logarithmic dependence on the size of the
matrix. Differently from many works in approximate recovery, we present results
both for bounded Lipschitz losses and for the absolute loss, with the latter
relying on Talagrand-type inequalities. The proofs create a bridge between two
approaches to the theoretical analysis of matrix completion, since they consist
in a combination of techniques from both the exact recovery literature and the
approximate recovery literature.
- Abstract(参考訳): 本研究では,低雑音環境下でのサブガウス雑音仮定の下でのインダクティブ行列完備化(サイド情報付き行列完備化)について一様サンプリングにより検討した。
その結果,(1)ノイズの標準偏差のようにスケールし,(2)完全回復の場合ではゼロに接近する,(2) サンプルサイズが無限に近づくとゼロに収束する,(3) サイド情報の固定次元では行列の大きさにのみ対数依存する,という3つの特性を持つ一般化が得られた。
近似回復における多くの研究と異なり、我々は有界リプシッツ損失と絶対損失の両方について結果を提示し、後者はタラグラッド型不等式に依存する。
これらの証明は、正確な回復文献と近似回復文献の両方の技法の組み合わせからなるため、行列完備化の理論的解析に対する2つのアプローチの間の橋渡しとなる。
関連論文リスト
- Critical Points and Convergence Analysis of Generative Deep Linear
Networks Trained with Bures-Wasserstein Loss [2.294014185517203]
本稿では,バーレス=ヴァッサーシュタイン距離で学習した共分散行列の行列分解モデルについて考察する。
階数有界行列の空間上のバーレス=ヴァッサーシュタイン距離の臨界点と最小化器を特徴づける。
有限段勾配勾配のスムーズな摂動バージョンを用いて勾配流の収束結果を確立する。
論文 参考訳(メタデータ) (2023-03-06T10:56:14Z) - Robust Matrix Completion with Heavy-tailed Noise [0.5837881923712392]
本稿では,重み付き潜在的非対称雑音の存在下での低ランク行列の完全性について検討する。
本稿では,大規模かつ非対称な誤りに対して頑健な重み付き雑音に適応するハマー損失を適応的に適用する。
誤差の2番目のモーメント条件下では、ユークリッド誤差は最小値の統計的推定誤差に到達するまで幾何的に早く落ちることが証明される。
論文 参考訳(メタデータ) (2022-06-09T04:48:48Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Global Convergence of Sub-gradient Method for Robust Matrix Recovery:
Small Initialization, Noisy Measurements, and Over-parameterization [4.7464518249313805]
サブグラディエント法(Sub-gradient method, SubGM)は, 限られた測定値から低ランク行列を復元するために用いられる。
我々は、SubGMが任意の大きさの高密度ノイズ値の下でも、真の解に収束することを示す。
論文 参考訳(メタデータ) (2022-02-17T17:50:04Z) - Implicit Regularization of Sub-Gradient Method in Robust Matrix
Recovery: Don't be Afraid of Outliers [6.320141734801679]
簡単な部分勾配法が真の低ランク解に効率的に収束することを示す。
また,本手法のロバスト性を証明するために,シグナ-RIPと呼ばれる制限等尺性の概念を新たに構築する。
論文 参考訳(メタデータ) (2021-02-05T02:52:00Z) - Leveraged Matrix Completion with Noise [84.20092979053119]
未知の$ntimes n$ matrix of rank $r$ from just $mathcalO(nrlog2 (n))$ entry.
我々の証明は、ゴルフスキームに基づく十分な最適条件を記述する新しいアプローチによって支持されている。
論文 参考訳(メタデータ) (2020-11-11T16:25:45Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z) - All-or-nothing statistical and computational phase transitions in sparse
spiked matrix estimation [35.035853993422506]
スパース方式で近似メッセージパッシングアルゴリズムを解析する。
最小誤差と平均二乗誤差の位相遷移がすべて存在する。
スパース体制では、スパース回復が近似メッセージパッシングに困難であることを示す統計的-アルゴリズム的ギャップが分岐する。
論文 参考訳(メタデータ) (2020-06-14T18:38:34Z) - Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable
Embeddings with Generative Priors [52.06292503723978]
生成モデルを用いた圧縮センシングの進歩により, 生成モデルを用いた1ビット圧縮センシングの問題点を考察した。
まずノイズのない1ビット測定を考察し, ガウス測度に基づく近似回復のためのサンプル複雑性境界を提供する。
また,リプシッツ連続生成モデルを用いた1ビット圧縮センシングにも有効であることを示すため,評価誤差と雑音に対する再構成の堅牢性を示すBinary $epsilon$-Stable Embedding特性を実証した。
論文 参考訳(メタデータ) (2020-02-05T09:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。