論文の概要: Flattened Graph Convolutional Networks For Recommendation
- arxiv url: http://arxiv.org/abs/2210.07769v1
- Date: Sun, 25 Sep 2022 12:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 21:03:38.900278
- Title: Flattened Graph Convolutional Networks For Recommendation
- Title(参考訳): 推薦のためのフラットなグラフ畳み込みネットワーク
- Authors: Yue Xu, Hao Chen, Zengde Deng, Yuanchen Bei, Feiran Huang
- Abstract要約: 本稿では,既存のモデルに比べて非常に少ない複雑さで優れた性能を達成できるフラット化GCN(FlatGCN)モデルを提案する。
まず,1つの平坦なGCN層を用いて周辺情報を集約する簡易かつ強力なGCNアーキテクチャを提案する。
次に,隣り合うノード間の相関を計測し,最も価値のある隣人を選択するための情報的隣人-infomaxサンプリング手法を提案する。
第3に,最終層に階層的近傍表現を組み立てることで,学習した表現の表現性を向上する層アンサンブル手法を提案する。
- 参考スコア(独自算出の注目度): 18.198536511983452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Convolutional Networks (GCNs) and their variants have achieved
significant performances on various recommendation tasks. However, many
existing GCN models tend to perform recursive aggregations among all related
nodes, which can arise severe computational burden to hinder their application
to large-scale recommendation tasks. To this end, this paper proposes the
flattened GCN~(FlatGCN) model, which is able to achieve superior performance
with remarkably less complexity compared with existing models. Our main
contribution is three-fold. First, we propose a simplified but powerful GCN
architecture which aggregates the neighborhood information using one flattened
GCN layer, instead of recursively. The aggregation step in FlatGCN is
parameter-free such that it can be pre-computed with parallel computation to
save memory and computational cost. Second, we propose an informative
neighbor-infomax sampling method to select the most valuable neighbors by
measuring the correlation among neighboring nodes based on a principled metric.
Third, we propose a layer ensemble technique which improves the expressiveness
of the learned representations by assembling the layer-wise neighborhood
representations at the final layer. Extensive experiments on three datasets
verify that our proposed model outperforms existing GCN models considerably and
yields up to a few orders of magnitude speedup in training efficiency.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)とその変種は、様々なレコメンデーションタスクにおいて大きなパフォーマンスを達成した。
しかし、既存のgcnモデルの多くは、関連するすべてのノード間で再帰的な集約を行う傾向にあり、大規模なレコメンデーションタスクへの応用を妨げる深刻な計算負荷が発生する可能性がある。
そこで本論文では,既存のモデルに比べて非常に少ない複雑さで優れた性能を達成できるフラット化GCN~(FlatGCN)モデルを提案する。
私たちの主な貢献は3倍です。
まず,1つの平坦なGCN層を用いて周辺情報を再帰的に集約する,単純化された強力なGCNアーキテクチャを提案する。
FlatGCNのアグリゲーションステップはパラメータフリーであり、メモリと計算コストを節約するために並列計算で事前計算することができる。
次に,隣接ノード間の相関を原理的なメトリックに基づいて測定し,最も価値の高い隣接ノードを選択するための情報型近傍-情報マックスサンプリング手法を提案する。
第3に,最終層に階層的近傍表現を組み立てることで,学習した表現の表現性を向上する層アンサンブル手法を提案する。
3つのデータセットに対する大規模な実験により、提案モデルが既存のGCNモデルよりも大幅に優れ、トレーニング効率が最大数桁向上することを確認した。
関連論文リスト
- Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Neighbor Enhanced Graph Convolutional Networks for Node Classification
and Recommendation [30.179717374489414]
本稿では,GCNモデルの性能に対する隣接品質の影響を理論的に分析する。
本稿では,既存のGCNモデルの性能向上を目的としたNeighbor Enhanced Graph Convolutional Network (NEGCN) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-30T06:54:28Z) - Non-Recursive Graph Convolutional Networks [33.459371861932574]
非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
論文 参考訳(メタデータ) (2021-05-09T08:12:18Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Single-Layer Graph Convolutional Networks For Recommendation [17.3621098912528]
Graph Convolutional Networks (GCNs) は、推奨タスクで最先端のパフォーマンスを達成した。
既存のGCNモデルでは、関連するすべてのノード間で再帰アグリゲーションを行う傾向があり、計算上の重荷が発生する。
DA類似性によってフィルタリングされた隣人からの情報を集約し,ノード表現を生成するための単一のGCN層を提案する。
論文 参考訳(メタデータ) (2020-06-07T14:38:47Z) - A Robust Hierarchical Graph Convolutional Network Model for
Collaborative Filtering [0.0]
グラフ畳み込みネットワーク(GCN)は大きな成功を収め、レコメンダシステムを含む様々な分野に適用されてきた。
GCNは依然として、トレーニングの困難、過剰なスムーシング、敵の攻撃に対する脆弱性など、多くの問題に悩まされている。
論文 参考訳(メタデータ) (2020-04-30T12:50:39Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。