論文の概要: DGEM: A New Dual-modal Graph Embedding Method in Recommendation System
- arxiv url: http://arxiv.org/abs/2108.04031v1
- Date: Mon, 9 Aug 2021 13:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 20:04:20.223201
- Title: DGEM: A New Dual-modal Graph Embedding Method in Recommendation System
- Title(参考訳): DGEM:レコメンデーションシステムにおける新しいデュアルモーダルグラフ埋め込み手法
- Authors: Huimin Zhou and Qing Li and Yong Jiang and Rongwei Yang and Zhuyun Qi
- Abstract要約: 現在のディープラーニングベースレコメンデーションシステムでは, 高次元スパース特徴ベクトルから低次元密度特徴ベクトルへの変換を完了させるために, 埋め込み方式が一般的である。
本稿では,これらの問題を解決するためにDual-modal Graph Embedding Method (DGEM)を提案する。
- 参考スコア(独自算出の注目度): 18.33515434926957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current deep learning based recommendation system, the embedding
method is generally employed to complete the conversion from the
high-dimensional sparse feature vector to the low-dimensional dense feature
vector. However, as the dimension of the input vector of the embedding layer is
too large, the addition of the embedding layer significantly slows down the
convergence speed of the entire neural network, which is not acceptable in
real-world scenarios. In addition, as the interaction between users and items
increases and the relationship between items becomes more complicated, the
embedding method proposed for sequence data is no longer suitable for graphic
data in the current real environment. Therefore, in this paper, we propose the
Dual-modal Graph Embedding Method (DGEM) to solve these problems. DGEM includes
two modes, static and dynamic. We first construct the item graph to extract the
graph structure and use random walk of unequal probability to capture the
high-order proximity between the items. Then we generate the graph embedding
vector through the Skip-Gram model, and finally feed the downstream deep neural
network for the recommendation task. The experimental results show that DGEM
can mine the high-order proximity between items and enhance the expression
ability of the recommendation model. Meanwhile it also improves the
recommendation performance by utilizing the time dependent relationship between
items.
- Abstract(参考訳): 現在のディープラーニングに基づくレコメンデーションシステムでは、高次元スパース特徴ベクトルから低次元密集特徴ベクトルへの変換を完了するために埋め込み法が一般的に用いられる。
しかし、埋め込み層の入力ベクトルの次元が大きすぎるため、埋め込み層の付加はニューラルネットワーク全体の収束速度を著しく遅くするが、現実のシナリオでは受け入れられない。
また,ユーザとアイテム間のインタラクションが増加し,アイテム間の関係が複雑化するにつれ,シーケンスデータに提案される埋め込み手法は,現在の実環境におけるグラフィックデータには適していない。
そこで本稿では,これらの問題を解決するためにDual-modal Graph Embedding Method (DGEM)を提案する。
DGEMには静的モードと動的モードの2つのモードがある。
まず,グラフ構造を抽出するためにアイテムグラフを構築し,不等確率のランダムウォークを用いてアイテム間の高次近接をキャプチャする。
次に、スキップグラムモデルを通じてグラフ埋め込みベクトルを生成し、最後に下流のディープニューラルネットワークにレコメンデーションタスクを供給します。
実験の結果,DGEMはアイテム間の高次近接をマイニングし,レコメンデーションモデルの表現能力を高めることができることがわかった。
また,アイテム間の時間依存関係を利用してレコメンデーション性能を向上させる。
関連論文リスト
- GRE^2-MDCL: Graph Representation Embedding Enhanced via Multidimensional Contrastive Learning [0.0]
グラフ表現学習は、ノードをベクトル表現にマッピングする際にグラフトポロジを保存する強力なツールとして登場した。
現在のグラフニューラルネットワークモデルは、広範なラベル付きデータを必要とするという課題に直面している。
多次元コントラスト学習によるグラフ表現埋め込みを提案する。
論文 参考訳(メタデータ) (2024-09-12T03:09:05Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Pyramidal Reservoir Graph Neural Network [18.632681846787246]
本稿では,2種類の層を置換するディープグラフニューラルネットワーク(GNN)モデルを提案する。
グラフプーリングがモデルの計算複雑性をいかに低減するかを示す。
RCベースGNNの設計に対する提案手法は,精度と複雑性のトレードオフを有利かつ原則的に実現している。
論文 参考訳(メタデータ) (2021-04-10T08:34:09Z) - RGCF: Refined Graph Convolution Collaborative Filtering with concise and
expressive embedding [42.46797662323393]
我々はRefined Graph Convolution Collaborative Filtering(RGCF)というGCNベースの新しい協調フィルタリングモデルを開発した。
RGCFはグラフ内の暗黙の高次連結性を捉えることができ、結果として得られるベクトル表現はより表現力が高い。
我々は3つの公開百万規模のデータセットに対して広範な実験を行い、我々のRGCFが最先端のモデルを大幅に上回っていることを実証した。
論文 参考訳(メタデータ) (2020-07-07T12:26:10Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。