論文の概要: A Light Heterogeneous Graph Collaborative Filtering Model using Textual
Information
- arxiv url: http://arxiv.org/abs/2010.07027v5
- Date: Fri, 22 Oct 2021 07:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 04:17:07.182086
- Title: A Light Heterogeneous Graph Collaborative Filtering Model using Textual
Information
- Title(参考訳): テキスト情報を用いた光不均一グラフ協調フィルタリングモデル
- Authors: Chaoyang Wang, Zhiqiang Guo, Guohui Li, Jianjun Li, Peng Pan, Ke Liu
- Abstract要約: 我々は,高度自然言語処理(NLP)モデルを用いて,関連性があり,アクセスしやすいテキスト情報を利用する。
ヘテロジニアスグラフ上のRGCN(RGCN,リレーショナルグラフ畳み込みネットワーク)協調フィルタリング手法を提案する。
- 参考スコア(独自算出の注目度): 16.73333758538986
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the development of graph neural networks, graph-based representation
learning methods have made great progress in recommender systems. However, data
sparsity is still a challenging problem that most graph-based recommendation
methods are confronted with. Recent works try to address this problem by
utilizing side information. In this paper, we exploit the relevant and easily
accessible textual information by advanced natural language processing (NLP)
models and propose a light RGCN-based (RGCN, relational graph convolutional
network) collaborative filtering method on heterogeneous graphs. Specifically,
to incorporate rich textual knowledge, we utilize a pre-trained NLP model to
initialize the embeddings of text nodes. Afterward, by performing a simplified
RGCN-based node information propagation on the constructed heterogeneous graph,
the embeddings of users and items can be adjusted with textual knowledge, which
effectively alleviates the negative effects of data sparsity. Moreover, the
matching function used by most graph-based representation learning methods is
the inner product, which is not appropriate for the obtained embeddings that
contain complex semantics. We design a predictive network that combines
graph-based representation learning with neural matching function learning, and
demonstrate that this architecture can bring a significant performance
improvement. Extensive experiments are conducted on three publicly available
datasets, and the results verify the superior performance of our method over
several baselines.
- Abstract(参考訳): グラフニューラルネットワークの開発により、グラフに基づく表現学習法は推奨システムにおいて大きな進歩を遂げた。
しかし、データスパーシティは依然として、ほとんどのグラフベースのレコメンデーション手法が直面する課題である。
最近の研究は、サイド情報を利用してこの問題に対処しようとしている。
本稿では,高次自然言語処理(NLP)モデルにより関連性があり容易にアクセス可能なテキスト情報を活用し,不均一グラフ上でのRGCN(RGCN,リレーショナルグラフ畳み込みネットワーク)協調フィルタリング手法を提案する。
具体的には,テキストノードの埋め込みを初期化するために,事前学習したNLPモデルを利用する。
その後、構築した異種グラフ上で簡易なRGCNベースのノード情報伝搬を行うことにより、ユーザとアイテムの埋め込みをテキスト知識で調整し、データ空間の負の効果を効果的に軽減する。
さらに、ほとんどのグラフベースの表現学習法で使われるマッチング関数は内積であり、複雑な意味論を含む埋め込みには適さない。
グラフに基づく表現学習とニューラルマッチング関数学習を組み合わせた予測ネットワークを設計し、このアーキテクチャが大幅なパフォーマンス向上をもたらすことを実証する。
3つの公開データセットについて広範な実験を行い,複数のベースラインに対して優れた性能を検証した。
関連論文リスト
- Self-Supervised Graph Neural Networks for Enhanced Feature Extraction in Heterogeneous Information Networks [16.12856816023414]
本稿では,インターネットの急速な発展に伴う複雑なグラフデータ処理におけるグラフニューラルネットワーク(GNN)の適用と課題について考察する。
自己監督機構を導入することにより、グラフデータの多様性と複雑さに対する既存モデルの適合性を向上させることが期待されている。
論文 参考訳(メタデータ) (2024-10-23T07:14:37Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Towards Relation-centered Pooling and Convolution for Heterogeneous
Graph Learning Networks [11.421162988355146]
不均一グラフニューラルネットワークは,グラフ表現学習において大きな可能性を秘めている。
我々は,PC-HGNという異種グラフ学習ネットワークのための関係中心のPooling and Convolutionを設計し,関係固有サンプリングと相互関係の畳み込みを実現する。
実世界の3つのデータセットにおける最先端グラフ学習モデルとの比較により,提案モデルの性能評価を行った。
論文 参考訳(メタデータ) (2022-10-31T08:43:32Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization [5.419711903307341]
グラフニューラルネットワークが学習するグラフレベルの表現を高めるための自己監視型学習法を提案する。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また, 効率的かつ効果的な対位学習を実現するために, ヘッドテールコントラストサンプル構築法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:12Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。