論文の概要: Knowledge Enhanced Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2303.15487v1
- Date: Mon, 27 Mar 2023 07:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:45:29.931711
- Title: Knowledge Enhanced Graph Neural Networks
- Title(参考訳): 知識強化型グラフニューラルネットワーク
- Authors: Luisa Werner (TYREX, UGA), Nabil Laya\"ida (LIG, TYREX), Pierre
Genev\`es (TYREX, CNRS), Sarah Chlyah (TYREX)
- Abstract要約: 本稿では,グラフデータ学習のための神経シンボルフレームワークであるKeGNNを提案する。
KeGNNは両方のパラダイムを組み合わせて、事前知識をグラフニューラルネットワークモデルに統合することを可能にする。
我々は、KeGNNとグラフ畳み込みネットワーク(Graph Convolutional Networks)とグラフ注意ネットワーク(Graph Attention Networks)の2つの標準グラフニューラルネットワークを同時にインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data is omnipresent and has a large variety of applications such as
natural science, social networks or semantic web. Though rich in information,
graphs are often noisy and incomplete. Therefore, graph completion tasks such
as node classification or link prediction have gained attention. On the one
hand, neural methods such as graph neural networks have proven to be robust
tools for learning rich representations of noisy graphs. On the other hand,
symbolic methods enable exact reasoning on graphs. We propose KeGNN, a
neuro-symbolic framework for learning on graph data that combines both
paradigms and allows for the integration of prior knowledge into a graph neural
network model. In essence, KeGNN consists of a graph neural network as a base
on which knowledge enhancement layers are stacked with the objective of
refining predictions with respect to prior knowledge. We instantiate KeGNN in
conjunction with two standard graph neural networks: Graph Convolutional
Networks and Graph Attention Networks, and evaluate KeGNN on multiple benchmark
datasets for node classification.
- Abstract(参考訳): グラフデータは、万能的に存在し、自然科学、ソーシャルネットワーク、セマンティックウェブなど、多種多様なアプリケーションを持っている。
情報は豊富だが、グラフはしばしば騒がしく不完全である。
そのため,ノード分類やリンク予測などのグラフ補完タスクが注目されている。
一方で、グラフニューラルネットワークのようなニューラルメソッドは、ノイズの多いグラフの豊かな表現を学ぶための堅牢なツールであることが証明されている。
一方、記号的手法はグラフの正確な推論を可能にする。
両パラダイムを組み合わせたグラフデータ学習のためのニューラルネットワークフレームワークであるKeGNNを提案し,従来の知識をグラフニューラルネットワークモデルに統合する。
本質的に、KeGNNは、知識強化レイヤを積み重ねた基盤としてグラフニューラルネットワークで構成されており、事前知識に関する予測を精査する目的がある。
我々は、グラフ畳み込みネットワークとグラフアテンションネットワークという2つの標準的なグラフニューラルネットワークと組み合わせてkegnnをインスタンス化し、ノード分類のための複数のベンチマークデータセット上でkegnnを評価する。
関連論文リスト
- A Survey on Graph Classification and Link Prediction based on GNN [11.614366568937761]
本稿では,グラフ畳み込みニューラルネットワークの世界について述べる。
グラフ畳み込みニューラルネットワークの基礎を詳述する。
注意機構とオートエンコーダに基づいて、グラフニューラルネットワークモデルを解明する。
論文 参考訳(メタデータ) (2023-07-03T09:08:01Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph-level Neural Networks: Current Progress and Future Directions [61.08696673768116]
グラフレベルのニューラルネットワーク(GLNN、ディープラーニングベースのグラフレベルの学習法)は、高次元データのモデリングにおいて優れているため、魅力的である。
本稿では,深層ニューラルネットワーク,グラフニューラルネットワーク,グラフプール上でのGLNNを網羅する系統分類法を提案する。
論文 参考訳(メタデータ) (2022-05-31T06:16:55Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Theory of Graph Neural Networks: Representation and Learning [44.02161831977037]
グラフニューラルネットワーク(GNN)は、ノードやグラフ、ポイントの設定を予測するための一般的な学習モデルになっている。
本稿では、広く使われているメッセージパッシングGNNと高次GNNの近似と学習特性に関する、新たな理論結果の選択について要約する。
論文 参考訳(メタデータ) (2022-04-16T02:08:50Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Learning Graph Representations [0.0]
グラフニューラルネットワーク(GNN)は、大きな動的グラフデータセットに対する洞察を得るための効率的な方法である。
本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダとソーシャル・テンポラル・グラフ・ニューラルネットワークについて論じる。
論文 参考訳(メタデータ) (2021-02-03T12:07:55Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。