論文の概要: GRecX: An Efficient and Unified Benchmark for GNN-based Recommendation
- arxiv url: http://arxiv.org/abs/2111.10342v1
- Date: Fri, 19 Nov 2021 17:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 15:49:18.805673
- Title: GRecX: An Efficient and Unified Benchmark for GNN-based Recommendation
- Title(参考訳): GRecX: GNNベースのレコメンデーションのための効率的で統一されたベンチマーク
- Authors: Desheng Cai, Jun Hu, Shengsheng Qian, Quan Fang, Quan Zhao, Changsheng
Xu
- Abstract要約: 我々はGNNベースのレコメンデーションモデルのベンチマークを行うためのオープンソースのフレームワークであるGRecXを紹介する。
GRecXは、GNNベースのレコメンデーションベンチマークを構築するためのコアライブラリと、人気のあるGNNベースのレコメンデーションモデルの実装で構成されている。
我々はGRecXを用いて実験を行い、実験の結果、GRecXはGNNベースの推薦基準を効率的かつ統一的にトレーニングし、ベンチマークすることができることを示した。
- 参考スコア(独自算出の注目度): 55.55523188090938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present GRecX, an open-source TensorFlow framework for
benchmarking GNN-based recommendation models in an efficient and unified way.
GRecX consists of core libraries for building GNN-based recommendation
benchmarks, as well as the implementations of popular GNN-based recommendation
models. The core libraries provide essential components for building efficient
and unified benchmarks, including FastMetrics (efficient metrics computation
libraries), VectorSearch (efficient similarity search libraries for dense
vectors), BatchEval (efficient mini-batch evaluation libraries), and
DataManager (unified dataset management libraries). Especially, to provide a
unified benchmark for the fair comparison of different complex GNN-based
recommendation models, we design a new metric GRMF-X and integrate it into the
FastMetrics component. Based on a TensorFlow GNN library tf_geometric, GRecX
carefully implements a variety of popular GNN-based recommendation models. We
carefully implement these baseline models to reproduce the performance reported
in the literature, and our implementations are usually more efficient and
friendly. In conclusion, GRecX enables uses to train and benchmark GNN-based
recommendation baselines in an efficient and unified way. We conduct
experiments with GRecX, and the experimental results show that GRecX allows us
to train and benchmark GNN-based recommendation baselines in an efficient and
unified way. The source code of GRecX is available at
https://github.com/maenzhier/GRecX.
- Abstract(参考訳): 本稿では、GNNベースのレコメンデーションモデルを効率的かつ統一的にベンチマークするためのオープンソースのTensorFlowフレームワークであるGRecXを提案する。
GRecXは、GNNベースのレコメンデーションベンチマークを構築するためのコアライブラリと、人気のあるGNNベースのレコメンデーションモデルの実装で構成されている。
コアライブラリは、FastMetrics(効率的なメトリクス計算ライブラリ)、VectorSearch(高密度ベクトルの効率的な類似検索ライブラリ)、BatchEval(効率的なミニバッチ評価ライブラリ)、DataManager(統一データセット管理ライブラリ)など、効率的で統一されたベンチマークを構築するための必須コンポーネントを提供する。
特に、異なる複雑なGNNベースレコメンデーションモデルの公正な比較のための統一されたベンチマークを提供するため、新しいメトリクスGRMF-Xを設計し、FastMetricsコンポーネントに統合する。
TensorFlow GNNライブラリtf_geometricに基づいて、GRecXは、さまざまな人気のあるGNNベースのレコメンデーションモデルを慎重に実装する。
私たちはこれらのベースラインモデルを慎重に実装して、文献で報告されたパフォーマンスを再現しています。
結論として、GRecXはGNNベースのレコメンデーションベースラインを効率的かつ統一的にトレーニングし、ベンチマークするための使用を可能にする。
我々はGRecXを用いて実験を行い、実験の結果、GRecXはGNNベースの推薦基準を効率的かつ統一的にトレーニングし、ベンチマークすることができることを示した。
GRecXのソースコードはhttps://github.com/maenzhier/GRecXで公開されている。
関連論文リスト
- A Novel Evaluation Perspective on GNNs-based Recommender Systems through the Topology of the User-Item Graph [14.12873271435375]
グラフニューラルネットワーク(GNN)ベースのレコメンデーションシステムは、レコメンデーションにおいて大きな成功を収めている。
本稿では,GNNをベースとしたレコメンデーションに対する新たな評価視点を提案し,グラフトポロジがレコメンデーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-08-21T16:34:53Z) - Graph Neural Re-Ranking via Corpus Graph [12.309841763251406]
Graph Neural Re-Ranking(GNRR)は、グラフニューラルネットワーク(GNN)に基づくパイプラインで、推論中に各クエリがドキュメントの分散を考慮できるようにする。
我々は、GNNが文書間の相互作用を効果的に捉え、人気のあるランキング指標の性能を向上させることを実証した。
論文 参考訳(メタデータ) (2024-06-17T16:38:19Z) - How Expressive are Graph Neural Networks in Recommendation? [17.31401354442106]
グラフニューラルネットワーク(GNN)は、レコメンデーションを含むさまざまなグラフ学習タスクにおいて、優れたパフォーマンスを示している。
近年、GNNの表現性を調査し、メッセージパッシングGNNがWeisfeiler-Lehmanテストと同じくらい強力であることを実証している。
本稿では,GNNがノード間の構造的距離を捉える能力を評価するために,位相的近接度尺度を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:17:34Z) - gSuite: A Flexible and Framework Independent Benchmark Suite for Graph
Neural Network Inference on GPUs [0.0]
フレームワークに依存しないベンチマークスイートを開発し、汎用計算モデルをサポートし、アーキテクチャシミュレータで追加の労力なしで使用することができる。
gSuiteは、現在のGPUプロファイラとアーキテクチャGPUシミュレータの両方を使用して、GNN推論に関する詳細なパフォーマンス評価研究を可能にする。
我々は、GNN計算の性能を厳格に測定するために、いくつかの評価指標を使用する。
論文 参考訳(メタデータ) (2022-10-20T21:18:51Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - Graph4Rec: A Universal Toolkit with Graph Neural Networks for
Recommender Systems [5.030752995016985]
Graph4RecはGNNモデルをトレーニングするためのパラダイムを統一する汎用ツールキットである。
我々は、異なるGNNモデルの性能を比較するために、体系的で包括的な実験を行う。
論文 参考訳(メタデータ) (2021-12-02T07:56:13Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Non-Local Graph Neural Networks [60.28057802327858]
本稿では,GNNに対する効果的な注意誘導ソート機能を備えた,シンプルで効果的な非局所集約フレームワークを提案する。
異種グラフデータセットを分析し,非局所的なGNNを評価するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2020-05-29T14:50:27Z) - Benchmarking Graph Neural Networks [75.42159546060509]
グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
成功している分野が主流で信頼性を持つようになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
GitHubリポジトリは1,800のスターと339のフォークに到達し、提案されているオープンソースフレームワークの有用性を実証している。
論文 参考訳(メタデータ) (2020-03-02T15:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。