論文の概要: Deep Variational Models for Collaborative Filtering-based Recommender
Systems
- arxiv url: http://arxiv.org/abs/2107.12677v1
- Date: Tue, 27 Jul 2021 08:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:27:13.583338
- Title: Deep Variational Models for Collaborative Filtering-based Recommender
Systems
- Title(参考訳): 協調フィルタリングに基づくレコメンダシステムの深部変分モデル
- Authors: Jes\'us Bobadilla, Fernando Ortega, Abraham Guti\'errez, \'Angel
Gonz\'alez-Prieto
- Abstract要約: ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
- 参考スコア(独自算出の注目度): 63.995130144110156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning provides accurate collaborative filtering models to improve
recommender system results. Deep matrix factorization and their related
collaborative neural networks are the state-of-art in the field; nevertheless,
both models lack the necessary stochasticity to create the robust, continuous,
and structured latent spaces that variational autoencoders exhibit. On the
other hand, data augmentation through variational autoencoder does not provide
accurate results in the collaborative filtering field due to the high sparsity
of recommender systems. Our proposed models apply the variational concept to
inject stochasticity in the latent space of the deep architecture, introducing
the variational technique in the neural collaborative filtering field. This
method does not depend on the particular model used to generate the latent
representation. In this way, this approach can be applied as a plugin to any
current and future specific models. The proposed models have been tested using
four representative open datasets, three different quality measures, and
state-of-art baselines. The results show the superiority of the proposed
approach in scenarios where the variational enrichment exceeds the injected
noise effect. Additionally, a framework is provided to enable the
reproducibility of the conducted experiments.
- Abstract(参考訳): ディープラーニングは、推奨システム結果を改善するための正確な協調フィルタリングモデルを提供する。
深層行列分解とその関連した協調ニューラルネットワークは、この分野における最先端である。しかしながら、どちらのモデルも変分オートエンコーダが示す頑健で連続的で構造化された潜在空間を作成するのに必要な確率性を欠いている。
一方,可変オートエンコーダによるデータ拡張は,レコメンデータシステムの分散度が高いため,協調フィルタリング分野における正確な結果を提供していない。
提案したモデルでは, ニューラルネットワークの協調フィルタリング分野における変分手法を導入し, 深部アーキテクチャの潜時空間に確率性を注入するために, 変分概念を適用した。
この方法は、潜在表現を生成するために使用される特定のモデルに依存しない。
このようにして、このアプローチは、現在および将来の特定のモデルのプラグインとして適用することができる。
提案したモデルは,4つの代表的なオープンデータセット,3つの異なる品質基準,最先端のベースラインを使用してテストされている。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
さらに、実施した実験の再現性を実現するためのフレームワークが提供される。
関連論文リスト
- Diffusion Model for Data-Driven Black-Box Optimization [54.25693582870226]
我々は、強力な生成AI技術である拡散モデルに注目し、ブラックボックス最適化の可能性について検討する。
本研究では,1)実数値報酬関数のノイズ測定と,2)対比較に基づく人間の嗜好の2種類のラベルについて検討する。
提案手法は,設計最適化問題を条件付きサンプリング問題に再構成し,拡散モデルのパワーを有効活用する。
論文 参考訳(メタデータ) (2024-03-20T00:41:12Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - Model Selection for Bayesian Autoencoders [25.619565817793422]
本稿では,オートエンコーダの出力と経験的データ分布との分散スライス-ワッサーシュタイン距離を最適化することを提案する。
我々のBAEは、フレキシブルなディリクレ混合モデルを潜在空間に適合させることにより、生成モデルに変換する。
我々は,教師なしの学習課題に対する膨大な実験的キャンペーンを質的かつ定量的に評価し,先行研究が重要となる小規模データ体制において,我々のアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-11T08:55:00Z) - Multi-output Gaussian Processes for Uncertainty-aware Recommender
Systems [3.908842679355254]
モデルトレーニングと推論のための効率的な戦略を導入し、その結果、非常に大きくスパースなデータセットにスケールするモデルを生み出します。
我々のモデルは、その予測の定量化に関する有意義な不確実性推定も提供する。
論文 参考訳(メタデータ) (2021-06-08T10:01:14Z) - A Twin Neural Model for Uplift [59.38563723706796]
Upliftは条件付き治療効果モデリングの特定のケースです。
相対リスクのベイズ解釈との関連性を利用して定義した新たな損失関数を提案する。
本提案手法は,シミュレーション設定の最先端と大規模ランダム化実験による実データとの競合性を示す。
論文 参考訳(メタデータ) (2021-05-11T16:02:39Z) - Cross-Modal Generative Augmentation for Visual Question Answering [34.9601948665926]
本稿では,複数のモダリティ間の相関を利用したデータ拡張生成モデルを提案する。
提案したモデルは,生成確率によって拡張データの信頼度を定量化し,下流パイプラインと共同して更新することができる。
論文 参考訳(メタデータ) (2021-05-11T04:51:26Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Learning Deep-Latent Hierarchies by Stacking Wasserstein Autoencoders [22.54887526392739]
本稿では, 最適輸送に基づくディープラーニング階層を用いたモデル学習手法を提案する。
提案手法は, VAEの「潜伏変数崩壊」問題を回避することで, 生成モデルをその深部潜伏階層を完全に活用することを可能にした。
論文 参考訳(メタデータ) (2020-10-07T15:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。