論文の概要: Causal Incremental Graph Convolution for Recommender System Retraining
- arxiv url: http://arxiv.org/abs/2108.06889v1
- Date: Mon, 16 Aug 2021 04:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:25:30.041065
- Title: Causal Incremental Graph Convolution for Recommender System Retraining
- Title(参考訳): Recommender System Retrainingのための因果増分グラフ畳み込み
- Authors: Sihao Ding, Fuli Feng, Xiangnan He, Yong Liao, Jun Shi, and Yongdong
Zhang
- Abstract要約: 実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
- 参考スコア(独自算出の注目度): 89.25922726558875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world recommender system needs to be regularly retrained to keep with
the new data. In this work, we consider how to efficiently retrain graph
convolution network (GCN) based recommender models, which are state-of-the-art
techniques for collaborative recommendation. To pursue high efficiency, we set
the target as using only new data for model updating, meanwhile not sacrificing
the recommendation accuracy compared with full model retraining. This is
non-trivial to achieve, since the interaction data participates in both the
graph structure for model construction and the loss function for model
learning, whereas the old graph structure is not allowed to use in model
updating. Towards the goal, we propose a \textit{Causal Incremental Graph
Convolution} approach, which consists of two new operators named
\textit{Incremental Graph Convolution} (IGC) and \textit{Colliding Effect
Distillation} (CED) to estimate the output of full graph convolution. In
particular, we devise simple and effective modules for IGC to ingeniously
combine the old representations and the incremental graph and effectively fuse
the long-term and short-term preference signals. CED aims to avoid the
out-of-date issue of inactive nodes that are not in the incremental graph,
which connects the new data with inactive nodes through causal inference. In
particular, CED estimates the causal effect of new data on the representation
of inactive nodes through the control of their collider. Extensive experiments
on three real-world datasets demonstrate both accuracy gains and significant
speed-ups over the existing retraining mechanism.
- Abstract(参考訳): 実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,グラフ畳み込みネットワーク(GCN)に基づくコラボレーティブレコメンデーションのための最先端技術であるレコメンデーションモデルを効率的に再学習する方法を検討する。
高効率を追求するために,モデル更新に新たなデータのみを使用するように目標を設定したが,モデルの完全なリトレーニングに比べて推奨精度を犠牲にしなかった。
これは、相互作用データがモデル構築のためのグラフ構造とモデル学習のための損失関数の両方に関与しているのに対して、古いグラフ構造はモデル更新で使用できないため、実現は容易ではない。
そこで本研究では,完全グラフ畳み込みの出力を推定するために,2つの新しい演算子である \textit{incremental graph convolution} (igc) と \textit{colliding effect distillation} (ced) からなる \textit{causal incremental graph convolution} アプローチを提案する。
特に,古い表現とインクリメンタルグラフを巧みに結合し,長期的および短期的な選好信号を効果的に融合する,iccの単純かつ効果的なモジュールを考案する。
CEDは、インクリメンタルグラフにない非アクティブノードの最新の問題を回避することを目的としており、因果推論を通じて新しいデータを非アクティブノードに接続する。
特に、cedは衝突器の制御による不活性ノードの表現に対する新しいデータの因果効果を推定する。
3つの実世界のデータセットに関する広範な実験は、既存のリトレーニングメカニズムに対する精度の向上と大幅なスピードアップの両方を示している。
関連論文リスト
- Graph Unlearning with Efficient Partial Retraining [28.433619085748447]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
GNNは、望ましくないグラフデータに基づいてトレーニングされ、パフォーマンスと信頼性を低下させることができる。
学習不能なGNNのモデルユーティリティをよりよく維持するグラフアンラーニングフレームワークであるGraphRevokerを提案する。
論文 参考訳(メタデータ) (2024-03-12T06:22:10Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Graph Masked Autoencoder for Sequential Recommendation [10.319298705782058]
本稿では,自動エンコーダ付きシーケンシャルレコメンダシステム(MAERec, Graph Masked AutoEncoder-enhanced Sequence Recommender System)を提案する。
提案手法は最先端のベースラインモデルを大幅に上回り,データノイズや空間性に対するより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2023-05-08T10:57:56Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Data Augmentation for Graph Convolutional Network on Semi-Supervised
Classification [6.619370466850894]
グラフ畳み込みネットワーク(GCN)におけるグラフデータ拡張の問題について検討する。
具体的には、元の特徴に基づいてコサイン類似性に基づくクロスオペレーションを行い、新しいノード属性を含む新しいグラフ機能を作成する。
また,これらのGCNによって符号化された隠れノード埋め込みを最終ノード埋め込みに重み付けした注意統合モデルを提案する。
論文 参考訳(メタデータ) (2021-06-16T15:13:51Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。