論文の概要: Sharpness-aware Second-order Latent Factor Model for High-dimensional and Incomplete Data
- arxiv url: http://arxiv.org/abs/2512.16277v1
- Date: Thu, 18 Dec 2025 07:57:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.972081
- Title: Sharpness-aware Second-order Latent Factor Model for High-dimensional and Incomplete Data
- Title(参考訳): 高次元および不完全データに対するシャープネスを考慮した2次潜在因子モデル
- Authors: Jialiang Wang, Xueyan Bao, Hao Wu,
- Abstract要約: 低ランク表現学習法のクラスである2次潜在因子モデル(SLF)はノード間データの抽出に有効であることが証明されている。
産業表現モデルの一般化を改善するために,シャープネス対応SLF(SSLF)モデルを提案する。
- 参考スコア(独自算出の注目度): 8.319118597967663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Second-order Latent Factor (SLF) model, a class of low-rank representation learning methods, has proven effective at extracting node-to-node interaction patterns from High-dimensional and Incomplete (HDI) data. However, its optimization is notoriously difficult due to its bilinear and non-convex nature. Sharpness-aware Minimization (SAM) has recently proposed to find flat local minima when minimizing non-convex objectives, thereby improving the generalization of representation-learning models. To address this challenge, we propose a Sharpness-aware SLF (SSLF) model. SSLF embodies two key ideas: (1) acquiring second-order information via Hessian-vector products; and (2) injecting a sharpness term into the curvature (Hessian) through the designed Hessian-vector products. Experiments on multiple industrial datasets demonstrate that the proposed model consistently outperforms state-of-the-art baselines.
- Abstract(参考訳): 低ランク表現学習法のクラスである2次潜在因子(SLF)モデルは,高次元および不完全(HDI)データからノード間相互作用パターンの抽出に有効であることが証明された。
しかし、その最適化は双線型で非凸性のため、非常に難しい。
シャープネスを意識した最小化(SAM)は,非凸目標の最小化時に平坦な局所最小値を求めることを提案し,表現学習モデルの一般化を改良した。
この課題に対処するため,シャープネス対応SLF(SSLF)モデルを提案する。
SSLFは,(1)ヘッセンベクター製品による2次情報取得,(2)設計したヘッセンベクター製品を通じて曲率(ヘッセン)にシャープネス項を注入する,という2つの重要なアイデアを具現化している。
複数の産業データセットの実験により、提案されたモデルは、最先端のベースラインを一貫して上回ることを示した。
関連論文リスト
- Adaptive Cubic Regularized Second-Order Latent Factor Analysis Model [14.755426957558868]
高次元および不完全HDIデータセットは、様々な現実世界のアプリケーションに広く普及している。
本稿では,情報不安定を緩和するための2つのアプローチを提案する。
ACRS HDIは、ALFが高速進行(SACR)モデルよりも高い表現を示すことを示した。
論文 参考訳(メタデータ) (2025-07-03T03:15:54Z) - PSLF: A PID Controller-incorporated Second-order Latent Factor Analysis Model for Recommender System [11.650076383080526]
2次ベースHDIモデル(SLF)解析はグラフ学習において特に高次および不完全因子データレートにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-31T13:01:58Z) - Mini-Hes: A Parallelizable Second-order Latent Factor Analysis Model [8.06111903129142]
本稿では,LFAモデル構築のためのミニブロック対角ヘシアンフリー(Mini-Hes)最適化を提案する。
実験結果から,Mini-Hesでは,LFAモデルは欠落したデータ推定タスクに対処する上で,いくつかの最先端モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-19T08:43:00Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - A Practical Second-order Latent Factor Model via Distributed Particle
Swarm Optimization [5.199454801210509]
Hessian-free (HF) 最適化は、LFモデルの目的関数の2次情報を利用するための効率的な方法である。
本研究では,実用的なSLF(PSLF)モデルを提案する。
実HiDSデータセットの実験は、PSLFモデルがデータ表現能力の最先端モデルに対して競争上の優位性を持っていることを示している。
論文 参考訳(メタデータ) (2022-08-12T05:49:08Z) - Second-order Symmetric Non-negative Latent Factor Analysis [3.1616300532562396]
本稿では,SNLFに効率的な2次法を組み込むことを提案する。
目的は、二階対称ネットワークモデル解析モデルを確立することである。
論文 参考訳(メタデータ) (2022-03-04T01:52:36Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。