論文の概要: R-GCN: The R Could Stand for Random
- arxiv url: http://arxiv.org/abs/2203.02424v1
- Date: Fri, 4 Mar 2022 16:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 13:53:08.273515
- Title: R-GCN: The R Could Stand for Random
- Title(参考訳): R-GCN:Rはランダムに立つかもしれない
- Authors: Vic Degraeve, Gilles Vandewiele, Femke Ongenae, Sofie Van Hoecke
- Abstract要約: Random Convolutional Network (RR-GCN) は知識グラフ上のノードへの埋め込みを構築する。
RR-GCNはノード分類とリンク予測設定の両方において完全に訓練されたR-GCNと競合できることを示す。
- 参考スコア(独自算出の注目度): 2.221251076371994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inception of Relational Graph Convolutional Networks (R-GCNs) marked a
milestone in the Semantic Web domain as it allows for end-to-end training of
machine learning models that operate on Knowledge Graphs (KGs). R-GCNs generate
a representation for a node of interest by repeatedly aggregating parametrised,
relation-specific transformations of its neighbours. However, in this paper, we
argue that the the R-GCN's main contribution lies in this "message passing"
paradigm, rather than the learned parameters. To this end, we introduce the
"Random Relational Graph Convolutional Network" (RR-GCN), which constructs
embeddings for nodes in the KG by aggregating randomly transformed random
information from neigbours, i.e., with no learned parameters. We empirically
show that RR-GCNs can compete with fully trained R-GCNs in both node
classification and link prediction settings. The implications of these results
are two-fold: on the one hand, our technique can be used as a quick baseline
that novel KG embedding methods should be able to beat. On the other hand, it
demonstrates that further research might reveal more parameter-efficient
inductive biases for KGs.
- Abstract(参考訳): リレーショナルグラフ畳み込みネットワーク(R-GCN)の誕生は、知識グラフ(KG)上で動作する機械学習モデルのエンドツーエンドトレーニングを可能にするセマンティックWebドメインにおけるマイルストーンとなった。
R-GCNは、近隣のパラメトリクスと関係特異的な変換を繰り返し集約することで、興味のあるノードの表現を生成する。
しかし,本論文では,r-gcnの主な貢献は学習パラメータではなく,この「メッセージパッシング」パラダイムにあると主張する。
この目的のために、ランダムに変換されたランダムな情報をナイグブラーから集約することで、KG内のノードへの埋め込みを構築するRR-GCN(Random Relational Graph Convolutional Network)を導入する。
RR-GCNはノード分類とリンク予測設定の両方において完全に訓練されたR-GCNと競合することを示す。
これらの結果の意義は2つある:一方、我々の技術は、新しいkg埋め込みメソッドが打ち勝てるという簡単な基準として使用できる。
一方で、さらなる研究によってkgsに対するパラメーター効率の高いインダクティブバイアスが明らかになることも示されている。
関連論文リスト
- Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Relational Graph Convolutional Networks: A Closer Look [1.8428580623654864]
グラフ畳み込みネットワーク(RGCN)の再生について述べる。
再現を用いて、モデルの背後にある直感を説明します。
結果は,実装の正しさを実証的に検証した。
論文 参考訳(メタデータ) (2021-07-21T11:25:11Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - Adaptive Propagation Graph Convolutional Network [17.41698818541144]
グラフ畳み込みネットワーク(GCN)は、グラフデータに対して推論を行うニューラルネットワークモデルの一群である。
我々は,各ノードにおける通信ステップ数を独立に適応させることで,最先端の結果が得られることを示す。
提案した適応伝搬GCN (AP-GCN) は, 最適モデルよりも優れた, あるいは類似した結果が得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T15:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。