論文の概要: Efficient Relation-aware Neighborhood Aggregation in Graph Neural
Networks via Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2212.05581v3
- Date: Mon, 29 May 2023 13:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:46:39.471750
- Title: Efficient Relation-aware Neighborhood Aggregation in Graph Neural
Networks via Tensor Decomposition
- Title(参考訳): テンソル分解によるグラフニューラルネットワークの効率的な関係認識近傍集約
- Authors: Peyman Baghershahi, Reshad Hosseini, Hadi Moradi
- Abstract要約: 本稿では,テンソル分解を集約関数に組み込んだ一般知識グラフを提案する。
我々のモデルでは、近傍の実体は低ランクテンソルの射影行列を用いて変換される。
本稿では,CP分解を用いたコアテンソルの低ランク推定手法を提案する。
- 参考スコア(独自算出の注目度): 6.596002578395149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many Graph Neural Networks (GNNs) are proposed for Knowledge Graph Embedding
(KGE). However, lots of these methods neglect the importance of the information
of relations and combine it with the information of entities inefficiently,
leading to low expressiveness. To address this issue, we introduce a general
knowledge graph encoder incorporating tensor decomposition in the aggregation
function of Relational Graph Convolutional Network (R-GCN). In our model,
neighbor entities are transformed using projection matrices of a low-rank
tensor which are defined by relation types to benefit from multi-task learning
and produce expressive relation-aware representations. Besides, we propose a
low-rank estimation of the core tensor using CP decomposition to compress and
regularize our model. We use a training method inspired by contrastive
learning, which relieves the training limitation of the 1-N method on huge
graphs. We achieve favorably competitive results on FB15k-237 and WN18RR with
embeddings in comparably lower dimensions.
- Abstract(参考訳): 多くのグラフニューラルネットワーク(GNN)が知識グラフ埋め込み(KGE)のために提案されている。
しかし、これらの手法の多くは関係情報の重要性を無視し、非効率な実体情報と組み合わせ、表現力の低下につながっている。
本稿では,関係グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ一般知識グラフエンコーダを提案する。
本モデルでは,マルチタスク学習の恩恵を受けるために関係型によって定義される低ランクテンソルの射影行列を用いて近傍のエンティティを変換し,表現的関係認識表現を生成する。
さらに、CP分解を用いたコアテンソルの低ランク推定を行い、モデルを圧縮・正規化する。
コントラスト学習にインスパイアされたトレーニング手法を用いて,大規模グラフ上での1-N法のトレーニング制限を緩和する。
我々は,FB15k-237およびWN18RRにおいて,比較的低次元の埋め込みによる良好な競争結果を得た。
関連論文リスト
- Tensor-view Topological Graph Neural Network [16.433092191206534]
グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:55:01Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。