論文の概要: A Dynamic-Neighbor Particle Swarm Optimizer for Accurate Latent Factor
Analysis
- arxiv url: http://arxiv.org/abs/2302.11954v1
- Date: Thu, 23 Feb 2023 12:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:23:56.894540
- Title: A Dynamic-Neighbor Particle Swarm Optimizer for Accurate Latent Factor
Analysis
- Title(参考訳): 高精度潜時要因解析のための動的近傍粒子群最適化器
- Authors: Jia Chen, Yixian Chun, Yuanyi Liu, Renyu Zhang and Yang Hu
- Abstract要約: LFAモデルの性能は最適化プロセスに大きく依存している。
いくつかの先行研究では、LFAモデルの最適化プロセスを強化するためにParticle Swarm Optimizationを採用している。
本稿では,2つの主観を持つ動的近傍協調型階層型PSO強化LFAモデルを提案する。
- 参考スコア(独自算出の注目度): 8.451827165005993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-Dimensional and Incomplete matrices, which usually contain a large
amount of valuable latent information, can be well represented by a Latent
Factor Analysis model. The performance of an LFA model heavily rely on its
optimization process. Thereby, some prior studies employ the Particle Swarm
Optimization to enhance an LFA model's optimization process. However, the
particles within the swarm follow the static evolution paths and only share the
global best information, which limits the particles' searching area to cause
sub-optimum issue. To address this issue, this paper proposes a
Dynamic-neighbor-cooperated Hierarchical PSO-enhanced LFA model with two-fold
main ideas. First is the neighbor-cooperated strategy, which enhances the
randomly chosen neighbor's velocity for particles' evolution. Second is the
dynamic hyper-parameter tunning. Extensive experiments on two benchmark
datasets are conducted to evaluate the proposed DHPL model. The results
substantiate that DHPL achieves a higher accuracy without hyper-parameters
tunning than the existing PSO-incorporated LFA models in representing an HDI
matrix.
- Abstract(参考訳): 高次元および不完全行列は、通常、多くの貴重な潜在情報を含むが、潜在因子分析モデルによってよく表される。
LFAモデルの性能は最適化プロセスに大きく依存している。
したがって、いくつかの先行研究では、lfaモデルの最適化プロセスを強化するために粒子群最適化を用いる。
しかし、Swarm内の粒子は静的な進化経路に従い、グローバルな最良の情報しか共有しないため、粒子の探索領域が最適以下の問題を引き起こす。
この問題に対処するため,本論文では,二つの主観を持つ動的近傍協調型階層型PSO強化LFAモデルを提案する。
まず、隣人が協力する戦略は、ランダムに選択された隣人の粒子の進化速度を高める。
第二に、ダイナミックなハイパーパラメータタニングである。
提案したDHPLモデルを評価するために,2つのベンチマークデータセットの大規模な実験を行った。
その結果、DHPL は HDI 行列を表す既存の PSO 内蔵 LFA モデルよりも高い精度を達成できることが示された。
関連論文リスト
- Accelerated Preference Optimization for Large Language Model Alignment [60.22606527763201]
Reinforcement Learning from Human Feedback (RLHF) は、大きな言語モデル(LLM)を人間の好みに合わせるための重要なツールとして登場した。
直接選好最適化(DPO)は、報酬関数を明示的に見積もることなく、ポリシー最適化問題としてRLHFを定式化する。
本稿では,既存の最適化アルゴリズムを統一したAPO(Accelerated Preference Optimization)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T18:51:01Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: An Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
特に、勾配に基づく最適化から理論的な枠組みや学習手法を借用し、改良された戦略を設計する。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Mini-Hes: A Parallelizable Second-order Latent Factor Analysis Model [8.06111903129142]
本稿では,LFAモデル構築のためのミニブロック対角ヘシアンフリー(Mini-Hes)最適化を提案する。
実験結果から,Mini-Hesでは,LFAモデルは欠落したデータ推定タスクに対処する上で,いくつかの最先端モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-19T08:43:00Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - An Adam-enhanced Particle Swarm Optimizer for Latent Factor Analysis [6.960453648000231]
本稿では,逐次PSOアルゴリズムを用いて潜在因子を改良したAdam-enhanced Hierarchical PSO-LFAモデルを提案する。
4つの実データセットに対する実験結果から,提案モデルがピアで高い予測精度を実現することを示す。
論文 参考訳(メタデータ) (2023-02-23T12:10:59Z) - A Practical Second-order Latent Factor Model via Distributed Particle
Swarm Optimization [5.199454801210509]
Hessian-free (HF) 最適化は、LFモデルの目的関数の2次情報を利用するための効率的な方法である。
本研究では,実用的なSLF(PSLF)モデルを提案する。
実HiDSデータセットの実験は、PSLFモデルがデータ表現能力の最先端モデルに対して競争上の優位性を持っていることを示している。
論文 参考訳(メタデータ) (2022-08-12T05:49:08Z) - Adaptive Latent Factor Analysis via Generalized Momentum-Incorporated
Particle Swarm Optimization [6.2303427193075755]
勾配降下(SGD)アルゴリズムは,高次元および不完全行列上に潜在因子分析(LFA)モデルを構築するための効果的な学習戦略である。
粒子群最適化(PSO)アルゴリズムは、SGDベースのLFAモデルのハイパーパラメータ(学習率と正規化係数、自己適応)を作成するために一般的に用いられる。
本論文は, 各粒子の進化過程に, 早期収束を避けるために, より歴史的情報を取り入れたものである。
論文 参考訳(メタデータ) (2022-08-04T03:15:07Z) - An Adaptive Alternating-direction-method-based Nonnegative Latent Factor
Model [2.857044909410376]
交互方向法に基づく非負潜在因子モデルにより、高次元および不完全行列への効率的な表現学習を行うことができる。
本稿では,超パラメータ適応を粒子群最適化の原理に従って実装した適応交互方向法に基づく非負遅延因子モデルを提案する。
産業応用によって生成される非負のHDI行列に関する実証的研究は、A2NLFが計算および記憶効率においていくつかの最先端モデルより優れており、HDI行列の欠落データに対する高い競合推定精度を維持していることを示している。
論文 参考訳(メタデータ) (2022-04-11T03:04:26Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - MOFA: Modular Factorial Design for Hyperparameter Optimization [47.779983311833014]
Modular FActorial Design (MOFA) は、因子分析により評価結果を利用する新しいHPO法である。
我々はMOFAの推測が他のサンプリング手法よりも高い信頼性が得られることを証明した。
実験結果から,MOFAは最先端手法よりも有効性と効率性が高いことが示された。
論文 参考訳(メタデータ) (2020-11-18T20:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。