論文の概要: Knowledge Enhanced Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2303.15487v2
- Date: Wed, 24 May 2023 07:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 01:44:10.965304
- Title: Knowledge Enhanced Graph Neural Networks
- Title(参考訳): 知識強化型グラフニューラルネットワーク
- Authors: Luisa Werner (TYREX, UGA), Nabil Laya\"ida (TYREX), Pierre Genev\`es
(CNRS, TYREX), Sarah Chlyah (TYREX)
- Abstract要約: Knowledge Enhanced Graph Neural Networks (KeGNN)は、グラフ補完のためのニューラルシンボリックなフレームワークである。
KeGNNは、知識強化レイヤを積み重ねた基盤としてグラフニューラルネットワークで構成されている。
我々はKeGNNを、最先端のグラフニューラルネットワーク、グラフ畳み込みネットワーク、グラフ注意ネットワークの2つと組み合わせてインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data is omnipresent and has a wide variety of applications, such as in
natural science, social networks, or the semantic web. However, while being
rich in information, graphs are often noisy and incomplete. As a result, graph
completion tasks, such as node classification or link prediction, have gained
attention. On one hand, neural methods, such as graph neural networks, have
proven to be robust tools for learning rich representations of noisy graphs. On
the other hand, symbolic methods enable exact reasoning on graphs. We propose
Knowledge Enhanced Graph Neural Networks (KeGNN), a neuro-symbolic framework
for graph completion that combines both paradigms as it allows for the
integration of prior knowledge into a graph neural network model. Essentially,
KeGNN consists of a graph neural network as a base upon which knowledge
enhancement layers are stacked with the goal of refining predictions with
respect to prior knowledge. We instantiate KeGNN in conjunction with two
state-of-the-art graph neural networks, Graph Convolutional Networks and Graph
Attention Networks, and evaluate KeGNN on multiple benchmark datasets for node
classification.
- Abstract(参考訳): グラフデータは、万能的に存在し、自然科学、ソーシャルネットワーク、セマンティックウェブなど、幅広い応用がある。
しかし、情報に富みながら、グラフはしばしば騒がしく不完全である。
その結果,ノード分類やリンク予測などのグラフ補完タスクが注目されている。
一方、グラフニューラルネットワークのようなニューラルネットワークは、ノイズの多いグラフの豊かな表現を学ぶための堅牢なツールであることが証明されている。
一方、記号的手法はグラフの正確な推論を可能にする。
本稿では,従来の知識をグラフニューラルネットワークモデルに統合することを可能にするため,両方のパラダイムを組み合わせたグラフ補完のためのニューラルネットワークフレームワークであるKeGNNを提案する。
基本的に、KeGNNは、知識強化レイヤを積み重ねる基盤としてグラフニューラルネットワークで構成されており、事前知識に関する予測を精査する目的がある。
我々は、KeGNNと2つの最先端グラフニューラルネットワーク、グラフ畳み込みネットワークとグラフ注意ネットワークを同時にインスタンス化し、ノード分類のための複数のベンチマークデータセット上でKeGNNを評価する。
関連論文リスト
- A Survey on Graph Classification and Link Prediction based on GNN [11.614366568937761]
本稿では,グラフ畳み込みニューラルネットワークの世界について述べる。
グラフ畳み込みニューラルネットワークの基礎を詳述する。
注意機構とオートエンコーダに基づいて、グラフニューラルネットワークモデルを解明する。
論文 参考訳(メタデータ) (2023-07-03T09:08:01Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph-level Neural Networks: Current Progress and Future Directions [61.08696673768116]
グラフレベルのニューラルネットワーク(GLNN、ディープラーニングベースのグラフレベルの学習法)は、高次元データのモデリングにおいて優れているため、魅力的である。
本稿では,深層ニューラルネットワーク,グラフニューラルネットワーク,グラフプール上でのGLNNを網羅する系統分類法を提案する。
論文 参考訳(メタデータ) (2022-05-31T06:16:55Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Theory of Graph Neural Networks: Representation and Learning [44.02161831977037]
グラフニューラルネットワーク(GNN)は、ノードやグラフ、ポイントの設定を予測するための一般的な学習モデルになっている。
本稿では、広く使われているメッセージパッシングGNNと高次GNNの近似と学習特性に関する、新たな理論結果の選択について要約する。
論文 参考訳(メタデータ) (2022-04-16T02:08:50Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Learning Graph Representations [0.0]
グラフニューラルネットワーク(GNN)は、大きな動的グラフデータセットに対する洞察を得るための効率的な方法である。
本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダとソーシャル・テンポラル・グラフ・ニューラルネットワークについて論じる。
論文 参考訳(メタデータ) (2021-02-03T12:07:55Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。