論文の概要: Adaptive Divergence-based Non-negative Latent Factor Analysis
- arxiv url: http://arxiv.org/abs/2203.16214v1
- Date: Wed, 30 Mar 2022 11:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:52:54.918261
- Title: Adaptive Divergence-based Non-negative Latent Factor Analysis
- Title(参考訳): 適応的発散に基づく非負遅延因子解析
- Authors: Ye Yuan, Guangxiao Yuan, Renfang Wang, and Xin Luo
- Abstract要約: 本研究では,適応分岐に基づく非負遅延因子モデル(ADNLF)を提案する。
ADNLFモデルは、高い計算効率を持つHDIデータセットの欠落データに対する推定精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 6.265179945530255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High-Dimensional and Incomplete (HDI) data are frequently found in various
industrial applications with complex interactions among numerous nodes, which
are commonly non-negative for representing the inherent non-negativity of node
interactions. A Non-negative Latent Factor (NLF) model is able to extract
intrinsic features from such data efficiently. However, existing NLF models all
adopt a static divergence metric like Euclidean distance or {\alpha}-\b{eta}
divergence to build its learning objective, which greatly restricts its
scalability of accurately representing HDI data from different domains. Aiming
at addressing this issue, this study presents an Adaptive Divergence-based
Non-negative Latent Factor (ADNLF) model with three-fold ideas: a) generalizing
the objective function with the {\alpha}-\b{eta}-divergence to expand its
potential of representing various HDI data; b) adopting a non-negative bridging
function to connect the optimization variables with output latent factors for
fulfilling the non-negativity constraints constantly; and c) making the
divergence parameters adaptive through particle swarm optimization, thereby
facilitating adaptive divergence in the learning objective to achieve high
scalability. Empirical studies are conducted on four HDI datasets from real
applications, whose results demonstrate that in comparison with
state-of-the-art NLF models, an ADNLF model achieves significantly higher
estimation accuracy for missing data of an HDI dataset with high computational
efficiency.
- Abstract(参考訳): 高次元および不完全(HDI)データは、多くのノード間の複雑な相互作用を持つ様々な産業アプリケーションでよく見られるが、一般にノード間の相互作用の固有の非負性を表すために非負である。
非負の潜在因子(NLF)モデルは、そのようなデータから本質的な特徴を効率的に抽出することができる。
しかし、既存のNLFモデルは、すべてユークリッド距離や {\alpha}-\b{eta}分散のような静的な発散距離を用いて学習目標を構築し、異なるドメインからHDIデータを正確に表現するスケーラビリティを著しく制限している。
本研究は,この課題に対処するために,適応的分岐に基づく非負遅延因子(ADNLF)モデルを提案する。
a) 目的関数を {\alpha}-\b{eta}-divergence で一般化して,様々なhdiデータを表現できる可能性を拡大すること。
b)非負のブリッジ機能を採用して最適化変数を非負性制約を常に満たすための出力遅延因子と接続すること。
c) 粒子群最適化による発散パラメータの適応化により,学習目標における適応発散が促進され,高いスケーラビリティが達成される。
実アプリケーションから得られた4つのhdiデータセットについて実証研究を行い,その結果から,adnlfモデルと最先端nlfモデルとの比較により,計算効率の高いhdiデータセットの欠落データに対する推定精度が有意に高いことを証明した。
関連論文リスト
- Assumption-Lean Post-Integrated Inference with Negative Control Outcomes [0.0]
負の制御結果を用いて遅延不均一性を調整する頑健なポストインテグレート推論(PII)手法を提案する。
提案手法は,予測された直接効果推定値,隠された仲介者,共同設立者,モデレーターまで拡張する。
提案された二重頑健な推定器は、最小の仮定と潜在的な不特定性の下で一貫性があり、効率的である。
論文 参考訳(メタデータ) (2024-10-07T12:52:38Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - A Nonlinear PID-Enhanced Adaptive Latent Factor Analysis Model [6.2303427193075755]
高次元および不完全(HDI)データは、様々な産業応用において非常にインタラクティブな情報を保持する。
The Latent Factor (LF) model is significantly effective to extract valuable information from HDI data with proper gradient (SGD) algorithm。
SGDベースのLFAモデルは、現在の学習誤差のみを考慮するため、収束が遅い。
論文 参考訳(メタデータ) (2022-08-04T07:48:19Z) - PI-NLF: A Proportional-Integral Approach for Non-negative Latent Factor
Analysis [9.087387628717952]
非負潜在因子モデル(NLF)は、HDI行列に対する効率的な表現学習を行う。
PI-NLFモデルは、HDI行列の欠落データに対する計算効率と推定精度の両方において、最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2022-05-05T12:04:52Z) - Scalable Regularised Joint Mixture Models [2.0686407686198263]
多くの応用において、データは異なる基底分布を持つ潜在群にまたがるという意味で不均一である。
我々は,(i)明示的多変量特徴分布,(ii)高次元回帰モデル,(iii)潜在群ラベルの連成学習を可能にする異種データに対するアプローチを提案する。
このアプローチは明らかに高次元において有効であり、計算効率のためのデータ削減と、特徴数が大きければ鍵信号を保持する再重み付けスキームを組み合わせる。
論文 参考訳(メタデータ) (2022-05-03T13:38:58Z) - An Adaptive Alternating-direction-method-based Nonnegative Latent Factor
Model [2.857044909410376]
交互方向法に基づく非負潜在因子モデルにより、高次元および不完全行列への効率的な表現学習を行うことができる。
本稿では,超パラメータ適応を粒子群最適化の原理に従って実装した適応交互方向法に基づく非負遅延因子モデルを提案する。
産業応用によって生成される非負のHDI行列に関する実証的研究は、A2NLFが計算および記憶効率においていくつかの最先端モデルより優れており、HDI行列の欠落データに対する高い競合推定精度を維持していることを示している。
論文 参考訳(メタデータ) (2022-04-11T03:04:26Z) - Improving Generalization via Uncertainty Driven Perturbations [107.45752065285821]
トレーニングデータポイントの不確実性による摂動について考察する。
損失駆動摂動とは異なり、不確実性誘導摂動は決定境界を越えてはならない。
線形モデルにおいて,UDPがロバスト性マージン決定を達成することが保証されていることを示す。
論文 参考訳(メタデータ) (2022-02-11T16:22:08Z) - Pseudo-Spherical Contrastive Divergence [119.28384561517292]
エネルギーベースモデルの最大学習確率を一般化するために,擬球面コントラスト分散(PS-CD)を提案する。
PS-CDは難解な分割関数を避け、学習目的の一般化されたファミリーを提供する。
論文 参考訳(メタデータ) (2021-11-01T09:17:15Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。