論文の概要: A Practical Second-order Latent Factor Model via Distributed Particle
Swarm Optimization
- arxiv url: http://arxiv.org/abs/2208.06125v1
- Date: Fri, 12 Aug 2022 05:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:37:23.157418
- Title: A Practical Second-order Latent Factor Model via Distributed Particle
Swarm Optimization
- Title(参考訳): 分散粒子群最適化による実用的2次潜在因子モデル
- Authors: Jialiang Wang and Yurong Zhong and Weiling Li
- Abstract要約: Hessian-free (HF) 最適化は、LFモデルの目的関数の2次情報を利用するための効率的な方法である。
本研究では,実用的なSLF(PSLF)モデルを提案する。
実HiDSデータセットの実験は、PSLFモデルがデータ表現能力の最先端モデルに対して競争上の優位性を持っていることを示している。
- 参考スコア(独自算出の注目度): 5.199454801210509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent Factor (LF) models are effective in representing high-dimension and
sparse (HiDS) data via low-rank matrices approximation. Hessian-free (HF)
optimization is an efficient method to utilizing second-order information of an
LF model's objective function and it has been utilized to optimize second-order
LF (SLF) model. However, the low-rank representation ability of a SLF model
heavily relies on its multiple hyperparameters. Determining these
hyperparameters is time-consuming and it largely reduces the practicability of
an SLF model. To address this issue, a practical SLF (PSLF) model is proposed
in this work. It realizes hyperparameter self-adaptation with a distributed
particle swarm optimizer (DPSO), which is gradient-free and parallelized.
Experiments on real HiDS data sets indicate that PSLF model has a competitive
advantage over state-of-the-art models in data representation ability.
- Abstract(参考訳): 低ランク行列近似による高次元・スパース(HiDS)データの表現にはLFモデルが有効である。
hessian-free (hf) 最適化は、lfモデルの目的関数の2次情報を利用する効率的な手法であり、slfモデルの最適化に利用されている。
しかしながら、slfモデルの低ランク表現能力は、その多重ハイパーパラメータに大きく依存する。
これらのハイパーパラメータを決定するのは時間がかかり、slfモデルの実用性が大幅に低下する。
この問題に対処するため,本研究では実用的SLF(PSLF)モデルを提案する。
分散粒子群最適化器(DPSO)による超パラメータ自己適応を実現する。
実HiDSデータセットの実験は、PSLFモデルがデータ表現能力の最先端モデルに対して競争上の優位性を持っていることを示している。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - PSLF: A PID Controller-incorporated Second-order Latent Factor Analysis Model for Recommender System [11.650076383080526]
2次ベースHDIモデル(SLF)解析はグラフ学習において特に高次および不完全因子データレートにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-31T13:01:58Z) - Spectrum-Aware Parameter Efficient Fine-Tuning for Diffusion Models [73.88009808326387]
生成モデルのための新しいスペクトル対応適応フレームワークを提案する。
本手法は,事前学習した重みの特異値とその基底ベクトルを調節する。
本稿では,計算効率と表現能力のバランスをとるスペクトルオーソ分解適応(SODA)を提案する。
論文 参考訳(メタデータ) (2024-05-31T17:43:35Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Generative Modeling with Phase Stochastic Bridges [49.4474628881673]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Active-Learning-Driven Surrogate Modeling for Efficient Simulation of
Parametric Nonlinear Systems [0.0]
支配方程式がなければ、パラメトリック還元次代理モデルを非侵襲的に構築する必要がある。
我々の研究は、パラメータのスナップショットを効率的に表示するための非侵入的最適性基準を提供する。
カーネルベースの浅層ニューラルネットワークを用いた能動的学習駆動サロゲートモデルを提案する。
論文 参考訳(メタデータ) (2023-06-09T18:01:14Z) - A Dynamic-Neighbor Particle Swarm Optimizer for Accurate Latent Factor
Analysis [8.451827165005993]
LFAモデルの性能は最適化プロセスに大きく依存している。
いくつかの先行研究では、LFAモデルの最適化プロセスを強化するためにParticle Swarm Optimizationを採用している。
本稿では,2つの主観を持つ動的近傍協調型階層型PSO強化LFAモデルを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:03:59Z) - An Adaptive Alternating-direction-method-based Nonnegative Latent Factor
Model [2.857044909410376]
交互方向法に基づく非負潜在因子モデルにより、高次元および不完全行列への効率的な表現学習を行うことができる。
本稿では,超パラメータ適応を粒子群最適化の原理に従って実装した適応交互方向法に基づく非負遅延因子モデルを提案する。
産業応用によって生成される非負のHDI行列に関する実証的研究は、A2NLFが計算および記憶効率においていくつかの最先端モデルより優れており、HDI行列の欠落データに対する高い競合推定精度を維持していることを示している。
論文 参考訳(メタデータ) (2022-04-11T03:04:26Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。