論文の概要: GraphSAIL: Graph Structure Aware Incremental Learning for Recommender
Systems
- arxiv url: http://arxiv.org/abs/2008.13517v2
- Date: Wed, 2 Sep 2020 02:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:24:10.901615
- Title: GraphSAIL: Graph Structure Aware Incremental Learning for Recommender
Systems
- Title(参考訳): GraphSAIL:レコメンダシステムのための増分学習を意識したグラフ構造
- Authors: Yishi Xu, Yingxue Zhang, Wei Guo, Huifeng Guo, Ruiming Tang, Mark
Coates
- Abstract要約: 我々は、一般的に経験されている破滅的な忘れの問題に対処するために、グラフ構造対応インクリメンタルラーニングフレームワーク、GraphSAILを開発した。
本手法は,インクリメンタルモデル更新時にユーザの長期的嗜好(項目の長期的特性)を保存する。
- 参考スコア(独自算出の注目度): 47.51104205511256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the convenience of collecting information through online services,
recommender systems now consume large scale data and play a more important role
in improving user experience. With the recent emergence of Graph Neural
Networks (GNNs), GNN-based recommender models have shown the advantage of
modeling the recommender system as a user-item bipartite graph to learn
representations of users and items. However, such models are expensive to train
and difficult to perform frequent updates to provide the most up-to-date
recommendations. In this work, we propose to update GNN-based recommender
models incrementally so that the computation time can be greatly reduced and
models can be updated more frequently. We develop a Graph Structure Aware
Incremental Learning framework, GraphSAIL, to address the commonly experienced
catastrophic forgetting problem that occurs when training a model in an
incremental fashion. Our approach preserves a user's long-term preference (or
an item's long-term property) during incremental model updating. GraphSAIL
implements a graph structure preservation strategy which explicitly preserves
each node's local structure, global structure, and self-information,
respectively. We argue that our incremental training framework is the first
attempt tailored for GNN based recommender systems and demonstrate its
improvement compared to other incremental learning techniques on two public
datasets. We further verify the effectiveness of our framework on a large-scale
industrial dataset.
- Abstract(参考訳): オンラインサービスを通じて情報を集めることの利便性を考えると、レコメンダシステムは大規模データを消費し、ユーザエクスペリエンスを改善する上でより重要な役割を果たす。
近年のグラフニューラルネットワーク(GNN)の出現により、GNNベースのレコメンデータモデルは、ユーザとアイテムの表現を学ぶために、ユーザイテムのバイパートグラフとしてレコメンデータシステムをモデル化する利点を示している。
しかし、こうしたモデルは訓練に費用がかかり、最新のレコメンデーションを提供するために頻繁な更新を行うのが難しい。
本稿では,GNNベースのレコメンデータモデルを漸進的に更新し,計算時間を大幅に短縮し,モデルをより頻繁に更新することを提案する。
段階的にモデルをトレーニングする際に発生する破滅的な忘れの問題に対処するために,グラフ構造対応インクリメンタルラーニングフレームワークであるGraphSAILを開発した。
本手法は,インクリメンタルモデル更新時にユーザの長期的嗜好(項目の長期的特性)を保存する。
graphsailは、各ノードのローカル構造、グローバル構造、自己情報を明確に保存するグラフ構造保存戦略を実装している。
我々のインクリメンタルトレーニングフレームワークは、GNNベースのレコメンデータシステムに適した最初の試みであり、2つの公開データセット上の他のインクリメンタル学習技術と比較して、その改善を実証している。
大規模産業データセットにおけるフレームワークの有効性をさらに検証する。
関連論文リスト
- GraphPro: Graph Pre-training and Prompt Learning for Recommendation [18.962982290136935]
GraphProはパラメータ効率と動的グラフ事前トレーニングと即時学習を組み合わせたフレームワークである。
本フレームワークは,時間的プロンプト機構とグラフ構造的プロンプト学習機構をシームレスに統合することにより,ユーザの好みを進化させる課題に対処する。
論文 参考訳(メタデータ) (2023-11-28T12:00:06Z) - Instant Representation Learning for Recommendation over Large Dynamic
Graphs [29.41179019520622]
動的多重多元グラフのための新しいグラフニューラルネットワークSUPAを提案する。
新しいエッジごとに、SUPAは影響のあるサブグラフをサンプリングし、2つの対話ノードの表現を更新し、その相互作用情報をサンプリングされたサブグラフに伝達する。
SuPAをオンラインでインクリメンタルにトレーニングするために、大規模な動的グラフのシングルパストレーニングのための効率的なワークフローであるInsLearnを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:36:10Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。