論文の概要: An ADRC-Incorporated Stochastic Gradient Descent Algorithm for Latent
Factor Analysis
- arxiv url: http://arxiv.org/abs/2401.07012v1
- Date: Sat, 13 Jan 2024 08:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:21:46.470010
- Title: An ADRC-Incorporated Stochastic Gradient Descent Algorithm for Latent
Factor Analysis
- Title(参考訳): 潜在因子分析のためのadrc組み込み確率勾配降下アルゴリズム
- Authors: Jinli Li and Ye Yuan
- Abstract要約: 勾配降下(SGD)に基づく潜在因子分析(LFA)モデルは,HDI行列から貴重な情報を抽出するのに極めて有効である。
標準SGDアルゴリズムは、学習エラーの履歴と将来の状態を考慮せずに、現在の学習誤差のみを計算できる。
本稿では,ADRCを組み込んだSGD(ADS)アルゴリズムを革新的に提案する。
- 参考スコア(独自算出の注目度): 6.843073158719234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional and incomplete (HDI) matrix contains many complex
interactions between numerous nodes. A stochastic gradient descent (SGD)-based
latent factor analysis (LFA) model is remarkably effective in extracting
valuable information from an HDI matrix. However, such a model commonly
encounters the problem of slow convergence because a standard SGD algorithm
only considers the current learning error to compute the stochastic gradient
without considering the historical and future state of the learning error. To
address this critical issue, this paper innovatively proposes an
ADRC-incorporated SGD (ADS) algorithm by refining the instance learning error
by considering the historical and future state by following the principle of an
ADRC controller. With it, an ADS-based LFA model is further achieved for fast
and accurate latent factor analysis on an HDI matrix. Empirical studies on two
HDI datasets demonstrate that the proposed model outperforms the
state-of-the-art LFA models in terms of computational efficiency and accuracy
for predicting the missing data of an HDI matrix.
- Abstract(参考訳): 高次元および不完全行列(HDI)は多くのノード間の多くの複雑な相互作用を含む。
確率勾配勾配(SGD)に基づく潜在因子分析(LFA)モデルは,HDI行列から貴重な情報を抽出するのに極めて有効である。
しかし、標準sgdアルゴリズムは現在の学習誤差のみを考慮し、学習誤差の歴史的・将来の状態を考慮せずに確率的勾配を計算するため、このモデルは通常、収束の遅い問題に遭遇する。
本論文は,ADRCコントローラの原理に従うことで,歴史的および将来の状態を考慮したインスタンス学習誤差を補正し,ADRCを組み込んだSGD(ADS)アルゴリズムを革新的に提案する。
これにより、HDI行列上での高速かつ正確な潜在因子分析のために、ADSに基づくLFAモデルがさらに達成される。
2つのHDIデータセットに関する実証研究により、提案モデルは、HDI行列の欠落データを予測するための計算効率と精度の観点から、最先端のLFAモデルよりも優れていることを示した。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Proximal Symmetric Non-negative Latent Factor Analysis: A Novel Approach
to Highly-Accurate Representation of Undirected Weighted Networks [2.1797442801107056]
Undirected Weighted Network (UWN) は、ビッグデータ関連のアプリケーションで一般的に見られる。
既存のモデルは本質対称性や低データ密度のモデル化に失敗する。
近軸対称非負の潜在因子分析モデルを提案する。
論文 参考訳(メタデータ) (2023-06-06T13:03:24Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Fast Latent Factor Analysis via a Fuzzy PID-Incorporated Stochastic
Gradient Descent Algorithm [1.984879854062214]
勾配降下(SGD)に基づく潜在因子分析モデルは,HDI行列から貴重な情報を抽出するのに極めて有効である。
標準SGDアルゴリズムは、過去の更新情報を考慮せずに、現在のインスタンスエラーの勾配に依存する潜在因子を学習する。
本稿では, ファジィPIDを組み込んだSGDアルゴリズムを2つのアイデアで提案する: 1) 過去の更新情報をPIDの原則に従って効率的な方法で再設計し, 2) ハイパーラーニングを実装し, ファジィ規則に従う適応を得る。
論文 参考訳(メタデータ) (2023-03-07T14:51:09Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - A Nonlinear PID-Enhanced Adaptive Latent Factor Analysis Model [6.2303427193075755]
高次元および不完全(HDI)データは、様々な産業応用において非常にインタラクティブな情報を保持する。
The Latent Factor (LF) model is significantly effective to extract valuable information from HDI data with proper gradient (SGD) algorithm。
SGDベースのLFAモデルは、現在の学習誤差のみを考慮するため、収束が遅い。
論文 参考訳(メタデータ) (2022-08-04T07:48:19Z) - PI-NLF: A Proportional-Integral Approach for Non-negative Latent Factor
Analysis [9.087387628717952]
非負潜在因子モデル(NLF)は、HDI行列に対する効率的な表現学習を行う。
PI-NLFモデルは、HDI行列の欠落データに対する計算効率と推定精度の両方において、最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2022-05-05T12:04:52Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Stochastic Hard Thresholding Algorithms for AUC Maximization [49.00683387735522]
分散分類におけるAUCのためのハードしきい値決定アルゴリズムを開発した。
提案アルゴリズムの有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-04T16:49:29Z) - Improving Covariance-Regularized Discriminant Analysis for EHR-based
Predictive Analytics of Diseases [20.697847129363463]
任意の分布を持つデータを分類するためのLDAの精度を理解する解析モデルについて検討する。
また、HDLSSデータのために開発された最先端のLDA手法より優れた新しいLDA分類器De-Sparseを提案する。
論文 参考訳(メタデータ) (2016-10-18T06:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。