論文の概要: LSTM Networks for Online Cross-Network Recommendations
- arxiv url: http://arxiv.org/abs/2008.10849v2
- Date: Thu, 3 Sep 2020 09:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 02:48:48.649136
- Title: LSTM Networks for Online Cross-Network Recommendations
- Title(参考訳): オンラインクロスネットワークレコメンデーションのためのLSTMネットワーク
- Authors: Dilruk Perera and Roger Zimmermann
- Abstract要約: クロスネットワークレコメンデータシステムは、複数のソースネットワークからの補助情報を使用して、総合的なユーザプロファイルを作成し、ターゲットネットワークにおけるレコメンデーションを改善する。
既存のクロスネットワークソリューションには2つの大きな制限があり、全体的なレコメンデータ性能が低下している。
本稿では,これらの問題を緩和するために,LSTM(Long-Term Memory)ネットワークを用いたオンラインソリューションを提案する。
- 参考スコア(独自算出の注目度): 33.17802459749589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-network recommender systems use auxiliary information from multiple
source networks to create holistic user profiles and improve recommendations in
a target network. However, we find two major limitations in existing
cross-network solutions that reduce overall recommender performance. Existing
models (1) fail to capture complex non-linear relationships in user
interactions, and (2) are designed for offline settings hence, not updated
online with incoming interactions to capture the dynamics in the recommender
environment. We propose a novel multi-layered Long Short-Term Memory (LSTM)
network based online solution to mitigate these issues. The proposed model
contains three main extensions to the standard LSTM: First, an attention gated
mechanism to capture long-term user preference changes. Second, a higher order
interaction layer to alleviate data sparsity. Third, time aware LSTM cell gates
to capture irregular time intervals between user interactions. We illustrate
our solution using auxiliary information from Twitter and Google Plus to
improve recommendations on YouTube. Extensive experiments show that the
proposed model consistently outperforms state-of-the-art in terms of accuracy,
diversity and novelty.
- Abstract(参考訳): クロスネットワークレコメンデータシステムは、複数のソースネットワークからの補助情報を使用して、総合的なユーザプロファイルを作成し、ターゲットネットワークにおけるレコメンデーションを改善する。
しかし、既存のクロスネットワークソリューションにおいて、全体的なレコメンデータパフォーマンスを低下させる2つの大きな制限が見つかる。
既存のモデル(1)は、ユーザインタラクションにおける複雑な非線形関係をキャプチャすることができず、(2)はオフライン設定のために設計されている。
この問題を軽減するために,多層長短期記憶(lstm)ネットワークを用いたオンラインソリューションを提案する。
提案モデルには標準LSTMの3つの主要な拡張が含まれている。
第二に、データの分散を緩和する高次の相互作用層。
第3に、LSTMセルゲートはユーザ間の不規則な時間間隔をキャプチャする。
私たちは、TwitterとGoogle Plusの補助情報を使って、YouTubeのレコメンデーションを改善するソリューションを説明します。
広範な実験により,提案モデルが精度,多様性,新規性において最先端を一貫して上回っていることが示された。
関連論文リスト
- Topology-Aware Popularity Debiasing via Simplicial Complexes [19.378410889819165]
TSP(Test-time Simplicial Propagation)は、グラフニューラルネットワーク(GNN)の表現性を高めるために、simplicial Complex(SC)を組み込んだ。
提案手法は, SCを用いて複数順序関係を捕捉し, ユーザとイテムのインタラクションをより包括的に表現する。
提案手法はより均一なアイテム表現分布を生成し,より公平で正確なレコメンデーションを実現する。
論文 参考訳(メタデータ) (2024-11-21T07:12:47Z) - DIET: Customized Slimming for Incompatible Networks in Sequential Recommendation [16.44627200990594]
推奨システムは、頻繁なモバイル要求によるネットワークの混雑を軽減するために、エッジにモデルをデプロイし始める。
いくつかの研究はエッジ側とリアルタイムデータの近接を利用して、エッジ固有のモデルを作成するように微調整している。
これらの手法は、モデルを最新の状態に保つために、相当量の計算資源と頻繁なネットワーク転送を必要とする。
我々は、DIET(IncompatiblE neTworks)のためのカスタマイズされたslImmingフレームワークを提案し、DIETはすべてのデバイスに同じ一般的なバックボーン(潜在的に特定のエッジと互換性のない)をデプロイする。
論文 参考訳(メタデータ) (2024-06-13T04:39:16Z) - Linear-Time Graph Neural Networks for Scalable Recommendations [50.45612795600707]
推薦システムの鍵は、過去のユーザとイテムのインタラクションに基づいて、ユーザの将来の振る舞いを予測することである。
近年、リコメンデータシステムの予測性能を高めるためにグラフニューラルネットワーク(GNN)を活用することへの関心が高まっている。
我々は,従来のMF手法と同等のスケーラビリティを実現するために,GNNベースのレコメンデータシステムをスケールアップするための線形時間グラフニューラルネットワーク(LTGNN)を提案する。
論文 参考訳(メタデータ) (2024-02-21T17:58:10Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Multi-behavior Self-supervised Learning for Recommendation [36.42241501002167]
本稿では,適応最適化手法とともに,MBSSL(Multi-Behavior Self-Supervised Learning)フレームワークを提案する。
具体的には、行動多重度と依存性をキャプチャする自己認識機構を組み込んだ行動認識型グラフニューラルネットワークを考案する。
5つの実世界のデータセットの実験は、MBSSLが10の最先端技術(SOTA)ベースライン上で得た一貫した改善を示している。
論文 参考訳(メタデータ) (2023-05-22T15:57:32Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Adaptive Target-Condition Neural Network: DNN-Aided Load Balancing for
Hybrid LiFi and WiFi Networks [19.483289519348315]
機械学習は、複雑性に優しいロードバランシングソリューションを提供する可能性がある。
学習支援のSOTA(State-of-the-art)は,ネットワーク環境が変化すると再学習を必要とする。
適応目標条件ニューラルネットワーク(A-TCNN)と呼ばれる新しいディープニューラルネットワーク(DNN)構造を提案する。
論文 参考訳(メタデータ) (2022-08-09T20:46:13Z) - Learning towards Synchronous Network Memorizability and Generalizability
for Continual Segmentation across Multiple Sites [52.84959869494459]
臨床実践では、複数のサイトから連続的なデータストリームを継続的に学習するために、セグメンテーションネットワークが必要であることが多い。
既存の方法は、通常、以前のサイトのネットワーク記憶可能性や、目に見えないサイトの一般化可能性に制限される。
本稿では,SMG学習フレームワークの提案により,同期記憶可能性と一般化可能性の問題に取り組むことを目的とする。
論文 参考訳(メタデータ) (2022-06-14T13:04:36Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Exploring the use of Time-Dependent Cross-Network Information for
Personalized Recommendations [33.17802459749589]
本稿では,ネットワーク間時間を考慮した新しいレコメンデーションソリューションを提案する。
このソリューションは、複数のソースネットワークからユーザの好みを集約することで、ターゲットネットワークの履歴的ユーザモデルを学ぶ。
マルチタイム・アウェアネスとクロスネットワーク・ベースラインを用いた実験により,提案手法は精度,ノベルティ,多様性の面で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-25T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。