論文の概要: Graph Convolutional Network for Recommendation with Low-pass
Collaborative Filters
- arxiv url: http://arxiv.org/abs/2006.15516v3
- Date: Mon, 18 Jan 2021 15:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:25:54.680412
- Title: Graph Convolutional Network for Recommendation with Low-pass
Collaborative Filters
- Title(参考訳): 低パス協調フィルタを用いたグラフ畳み込みネットワークの提案
- Authors: Wenhui Yu and Zheng Qin
- Abstract要約: 大規模グラフに適用可能なtextbfLow-pass textbfCollaborative textbfFilter (textbfLCF) を提案する。
LCFは、観測データの露出と量子化に起因するノイズを取り除くように設計されている。
実験の結果、LCFはグラフ畳み込みの有効性と効率を向上し、GCNは既存のGCNを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 32.76804332450971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \textbf{G}raph \textbf{C}onvolutional \textbf{N}etwork (\textbf{GCN}) is
widely used in graph data learning tasks such as recommendation. However, when
facing a large graph, the graph convolution is very computationally expensive
thus is simplified in all existing GCNs, yet is seriously impaired due to the
oversimplification. To address this gap, we leverage the \textit{original graph
convolution} in GCN and propose a \textbf{L}ow-pass \textbf{C}ollaborative
\textbf{F}ilter (\textbf{LCF}) to make it applicable to the large graph. LCF is
designed to remove the noise caused by exposure and quantization in the
observed data, and it also reduces the complexity of graph convolution in an
unscathed way. Experiments show that LCF improves the effectiveness and
efficiency of graph convolution and our GCN outperforms existing GCNs
significantly. Codes are available on \url{https://github.com/Wenhui-Yu/LCFN}.
- Abstract(参考訳): \textbf{g}raph \textbf{c}onvolutional \textbf{n}etwork (\textbf{gcn})はレコメンデーションなどのグラフデータ学習タスクで広く使われている。
しかし、大きなグラフに直面する場合、グラフの畳み込みは非常に計算コストがかかるため、既存のすべてのGCNでは単純化されるが、過剰な単純化により深刻な障害が生じる。
このギャップに対処するために、GCN の \textit{ Origin graph convolution} を利用し、大きなグラフに適用するために \textbf{L}ow-pass \textbf{C}ollaborative \textbf{F}ilter (\textbf{LCF}) を提案する。
LCFは、観測データの露出と量子化に起因するノイズを取り除くように設計されており、また、グラフ畳み込みの複雑さを非スケールで低減する。
実験の結果,LCFはグラフ畳み込みの有効性と効率を向上し,GCNは既存のGCNよりも優れていた。
コードは \url{https://github.com/wenhui-yu/lcfn} で入手できる。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Data Condensation via Self-expressive Graph Structure Reconstruction [7.4525875528900665]
我々は textbfSelf-presentive Graph Structure textbfReconstruction による textbfGraph Data textbfCondensation という新しいフレームワークを紹介した。
提案手法は,元のグラフ構造を凝縮過程に明示的に組み込んで,凝縮ノード間の不規則な相互依存性を捕捉する。
論文 参考訳(メタデータ) (2024-03-12T03:54:25Z) - Disentangled Condensation for Large-scale Graphs [31.781721873508978]
グラフニューラルネットワーク(GNN)の高価なトレーニングコストを節約するための興味深いテクニックとして、グラフ凝縮が登場した。
本稿では, 凝縮過程を2段階のGNNフリーパラダイムに分解し, ノードを独立に凝縮し, エッジを生成することを提案する。
この単純で効果的なアプローチは、中規模グラフの精度に匹敵する精度で最先端の手法よりも少なくとも10倍早く達成できる。
論文 参考訳(メタデータ) (2024-01-18T09:59:00Z) - Fused Gromov-Wasserstein Graph Mixup for Graph-level Classifications [44.15102300886821]
我々はFGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案し、FGWMixupはFused Gromov-Wasserstein計量空間のソースグラフの中間点を求める。
5つのデータセットで行った実験により、FGWMixupはGNNの一般化性と堅牢性を効果的に改善することが示された。
論文 参考訳(メタデータ) (2023-06-28T07:00:12Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Node Feature Kernels Increase Graph Convolutional Network Robustness [19.076912727990326]
グラフ畳み込みネットワーク(GCN)の入力の摂動に対する堅牢性は、ますます重要になっているトピックになりつつある。
本稿では,ランダム行列理論解析が可能である。
グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
論文 参考訳(メタデータ) (2021-09-04T04:20:45Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。