論文の概要: Graph4Rec: A Universal Toolkit with Graph Neural Networks for
Recommender Systems
- arxiv url: http://arxiv.org/abs/2112.01035v1
- Date: Thu, 2 Dec 2021 07:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 03:12:59.281946
- Title: Graph4Rec: A Universal Toolkit with Graph Neural Networks for
Recommender Systems
- Title(参考訳): Graph4Rec:レコメンダシステムのためのグラフニューラルネットワークを備えたユニバーサルツールキット
- Authors: Weibin Li, Mingkai He, Zhengjie Huang, Xianming Wang, Shikun Feng,
Weiyue Su, Yu Sun
- Abstract要約: Graph4RecはGNNモデルをトレーニングするためのパラダイムを統一する汎用ツールキットである。
我々は、異なるGNNモデルの性能を比較するために、体系的で包括的な実験を行う。
- 参考スコア(独自算出の注目度): 5.030752995016985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, owing to the outstanding performance in graph representation
learning, graph neural network (GNN) techniques have gained considerable
interests in many real-world scenarios, such as recommender systems and social
networks. In recommender systems, the main challenge is to learn the effective
user/item representations from their interactions. However, many recent
publications using GNNs for recommender systems cannot be directly compared,
due to their difference on datasets and evaluation metrics. Furthermore, many
of them only provide a demo to conduct experiments on small datasets, which is
far away to be applied in real-world recommender systems. To address this
problem, we introduce Graph4Rec, a universal toolkit that unifies the paradigm
to train GNN models into the following parts: graphs input, random walk
generation, ego graphs generation, pairs generation and GNNs selection. From
this training pipeline, one can easily establish his own GNN model with a few
configurations. Besides, we develop a large-scale graph engine and a parameter
server to support distributed GNN training. We conduct a systematic and
comprehensive experiment to compare the performance of different GNN models on
several scenarios in different scale. Extensive experiments are demonstrated to
identify the key components of GNNs. We also try to figure out how the sparse
and dense parameters affect the performance of GNNs. Finally, we investigate
methods including negative sampling, ego graph construction order, and warm
start strategy to find a more effective and efficient GNNs practice on
recommender systems. Our toolkit is based on PGL
https://github.com/PaddlePaddle/PGL and the code is opened source in
https://github.com/PaddlePaddle/PGL/tree/main/apps/Graph4Rec.
- Abstract(参考訳): 近年、グラフ表現学習の卓越した性能により、グラフニューラルネットワーク(gnn)技術は、レコメンダシステムやソーシャルネットワークなど、多くの現実世界のシナリオでかなりの関心を集めている。
推薦システムでは、対話から効果的なユーザ/イテム表現を学ぶことが主な課題である。
しかしながら,gnnをレコメンダシステムに用いる最近の出版物の多くは,データセットや評価指標の違いから直接比較することはできない。
さらに、それらの多くは、実世界のレコメンデーションシステムでの使用には程遠い、小さなデータセットで実験を行うためのデモのみを提供する。
この問題に対処するために,グラフ入力,ランダムウォーク生成,エゴグラフ生成,ペア生成,GNN選択という,GNNモデルをトレーニングするためのパラダイムを統一した汎用ツールキットであるGraph4Recを導入する。
このトレーニングパイプラインから、いくつかの設定で独自のGNNモデルを簡単に構築できる。
さらに,大規模グラフエンジンとパラメータサーバを開発し,分散GNN学習を支援する。
我々は,複数のシナリオで異なるGNNモデルの性能を比較するために,系統的かつ包括的な実験を行う。
広範に実験を行い、GNNの鍵となる構成要素を同定した。
また,スパースパラメータと密度パラメータがGNNの性能に与える影響についても検討する。
最後に,レコメンダシステムにおけるgnnの実践をより効果的かつ効率的なものにするために,負サンプリング,エゴグラフ構築順序,ウォームスタート戦略などの手法を検討する。
私たちのツールキットはPGL https://github.com/PaddlePaddle/PGLをベースにしています。
関連論文リスト
- Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Attention-Based Recommendation On Graphs [9.558392439655012]
グラフニューラルネットワーク(GNN)は、さまざまなタスクで顕著なパフォーマンスを示している。
本研究では,モデルベースレコメンデータシステムとしてGARecを提案する。
提案手法は,既存のモデルベース非グラフニューラルネットワークとグラフニューラルネットワークを異なるMovieLensデータセットで比較した。
論文 参考訳(メタデータ) (2022-01-04T21:02:02Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Boost then Convolve: Gradient Boosting Meets Graph Neural Networks [6.888700669980625]
グラデーションブースト決定木(gbdt)は,異種データに対して他の機械学習手法よりも優れていることが示されている。
我々は,gbdt と gnn を共同で訓練し,両世界のベストを勝ち取る新しいアーキテクチャを提案する。
我々のモデルは、GNNの勾配更新に新しい木を適合させることにより、エンドツーエンドの最適化の恩恵を受ける。
論文 参考訳(メタデータ) (2021-01-21T10:46:41Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。