論文の概要: E2E-GRec: An End-to-End Joint Training Framework for Graph Neural Networks and Recommender Systems
- arxiv url: http://arxiv.org/abs/2511.20564v1
- Date: Tue, 25 Nov 2025 17:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.595589
- Title: E2E-GRec: An End-to-End Joint Training Framework for Graph Neural Networks and Recommender Systems
- Title(参考訳): E2E-GRec:グラフニューラルネットワークとレコメンダシステムのためのエンドツーエンド共同トレーニングフレームワーク
- Authors: Rui Xue, Shichao Zhu, Liang Qin, Guangmou Pan, Yang Song, Tianfu Wu,
- Abstract要約: 提案するE2E-GRecは,GNNトレーニングをレコメンダシステムと統合する新しいエンドツーエンドトレーニングフレームワークである。
本フレームワークの特徴は, 大規模クロスドメインなヘテロジニアスグラフからの効率的なサブグラフサンプリングにより, トレーニングのスケーラビリティと効率性を確保すること, (ii) グラフ特徴自動エンコーダを用いて, GNN が構造的に意味のある埋め込みを学習するための補助的な自己指導的タスクを実現すること, (iii) グラドノームに基づく動的損失分散と組み合わせた2段階の機能融合機構である。
- 参考スコア(独自算出の注目度): 12.960867801368972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful tools for modeling graph-structured data and have been widely used in recommender systems, such as for capturing complex user-item and item-item relations. However, most industrial deployments adopt a two-stage pipeline: GNNs are first pre-trained offline to generate node embeddings, which are then used as static features for downstream recommender systems. This decoupled paradigm leads to two key limitations: (1) high computational overhead, since large-scale GNN inference must be repeatedly executed to refresh embeddings; and (2) lack of joint optimization, as the gradient from the recommender system cannot directly influence the GNN learning process, causing the GNN to be suboptimally informative for the recommendation task. In this paper, we propose E2E-GRec, a novel end-to-end training framework that unifies GNN training with the recommender system. Our framework is characterized by three key components: (i) efficient subgraph sampling from a large-scale cross-domain heterogeneous graph to ensure training scalability and efficiency; (ii) a Graph Feature Auto-Encoder (GFAE) serving as an auxiliary self-supervised task to guide the GNN to learn structurally meaningful embeddings; and (iii) a two-level feature fusion mechanism combined with Gradnorm-based dynamic loss balancing, which stabilizes graph-aware multi-task end-to-end training. Extensive offline evaluations, online A/B tests (e.g., a +0.133% relative improvement in stay duration, a 0.3171% reduction in the average number of videos a user skips) on large-scale production data, together with theoretical analysis, demonstrate that E2E-GRec consistently surpasses traditional approaches, yielding significant gains across multiple recommendation metrics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデリングするための強力なツールとして登場し、複雑なユーザ・イテムやアイテム・イテム関係をキャプチャするといったレコメンデーションシステムで広く利用されている。
しかし、ほとんどの産業展開では2段階のパイプラインが採用されている。GNNは、ノードの埋め込みを生成するために、最初にオフラインで事前訓練された後、ダウンストリームレコメンデータシステムの静的機能として使用される。
この分離されたパラダイムは、(1)大規模GNN推論をリフレッシュな埋め込みのために繰り返し実行する必要があるため、高い計算オーバーヘッド、(2)GNN学習プロセスに直接影響しない共同最適化の欠如、そして、GNNが推奨タスクに最適に情報を与える原因となる。
本稿では,GNNトレーニングをレコメンダシステムと統合する新たなエンドツーエンドトレーニングフレームワークであるE2E-GRecを提案する。
私たちのフレームワークには3つの重要なコンポーネントがあります。
一 大規模クロスドメイン異種グラフからの効率的な部分グラフサンプリングにより、訓練のスケーラビリティ及び効率性を確保すること。
二 グラフ特徴自動エンコーダ(GFAE)は、GNNが構造的に意味のある埋め込みを学ぶための補助的な自己監督タスクである。
三 グラフ対応マルチタスクエンドツーエンドトレーニングを安定化するグラドノームに基づく動的損失分散を併用した二段階機能融合機構。
大規模なオフライン評価、オンラインA/Bテスト(例えば、滞在期間の相対的な改善+0.133%、ユーザーがスキップするビデオの平均数0.3171%の削減)、理論的分析は、E2E-GRecが従来のアプローチを一貫して上回り、複数のレコメンデーション指標間で大きな利益をもたらすことを示した。
関連論文リスト
- Graph Neural Networks Powered by Encoder Embedding for Improved Node Learning [17.31465642587528]
グラフニューラルネットワーク(GNN)は、幅広いノードレベルのグラフ学習タスクのための強力なフレームワークとして登場した。
本稿では,1ホットグラフエンコーダ埋め込み (GEE) という統計的手法を用いて,高品質な初期ノード特徴を生成する。
本研究では,教師なし環境と教師なし環境の両方にまたがる広範囲なシミュレーションと実世界の実験を通して,その効果を実証する。
論文 参考訳(メタデータ) (2025-07-15T21:01:54Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Unlearning Graph Classifiers with Limited Data Resources [39.29148804411811]
制御されたデータ削除は、データに敏感なWebアプリケーションのための機械学習モデルの重要機能になりつつある。
グラフニューラルネットワーク(GNN)の効率的な機械学習を実現する方法はまだほとんど知られていない。
我々の主な貢献は GST に基づく非線形近似グラフアンラーニング法である。
第2の貢献は、提案した未学習機構の計算複雑性の理論解析である。
第3のコントリビューションは広範囲なシミュレーションの結果であり、削除要求毎のGNNの完全再トレーニングと比較して、新しいGSTベースのアプローチは平均10.38倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-11-06T20:46:50Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。