論文の概要: Technical report: Graph Neural Networks go Grammatical
- arxiv url: http://arxiv.org/abs/2303.01590v4
- Date: Wed, 4 Oct 2023 08:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 22:31:32.539207
- Title: Technical report: Graph Neural Networks go Grammatical
- Title(参考訳): テクニカルレポート:グラフニューラルネットワークは文法的になる
- Authors: Jason Piquenot, Aldo Moscatelli, Maxime B\'erar, Pierre H\'eroux,
Romain raveaux, Jean-Yves Ramel, S\'ebastien Adam
- Abstract要約: 本稿では,代数言語の一部とグラフニューラルネットワーク(GNN)との接続を正式に確立する枠組みを提案する。
このフレームワークは、文脈自由文法(CFG)を利用して、代数演算をGNN層モデルに変換可能な生成規則に整理する。
- 参考スコア(独自算出の注目度): 4.029787149512632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a framework for formally establishing a connection
between a portion of an algebraic language and a Graph Neural Network (GNN).
The framework leverages Context-Free Grammars (CFG) to organize algebraic
operations into generative rules that can be translated into a GNN layer model.
As CFGs derived directly from a language tend to contain redundancies in their
rules and variables, we present a grammar reduction scheme. By applying this
strategy, we define a CFG that conforms to the third-order Weisfeiler-Lehman
(3-WL) test using MATLANG. From this 3-WL CFG, we derive a GNN model, named
G$^2$N$^2$, which is provably 3-WL compliant. Through various experiments, we
demonstrate the superior efficiency of G$^2$N$^2$ compared to other 3-WL GNNs
across numerous downstream tasks. Specifically, one experiment highlights the
benefits of grammar reduction within our framework.
- Abstract(参考訳): 本稿では,代数的言語の一部とグラフニューラルネットワーク(gnn)との接続を形式的に確立するための枠組みを提案する。
このフレームワークは、文脈自由文法(CFG)を利用して、代数演算をGNN層モデルに変換可能な生成規則に整理する。
言語から直接派生したCFGは、規則や変数に冗長性を含む傾向があるため、文法還元方式を提案する。
この戦略を適用することで、MATLANGを用いた3階Weisfeiler-Lehman(3-WL)テストに適合するCFGを定義する。
この3WL CFG から GNN モデル G$^2$N$^2$ を導出する。
様々な実験を通じて,複数の下流タスクにおいて,g$^2$n$^2$が他の3-wl gnnよりも優れた効率を示す。
特に、ある実験は、我々のフレームワークにおける文法削減の利点を強調しています。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Empowering GNNs via Edge-Aware Weisfeiler-Leman Algorithm [79.68451803954751]
メッセージパッシンググラフニューラルネットワーク(GNN)は1次元Weisfeiler-Leman (1-WL)アルゴリズムによって上界表現性を持つことが知られている。
本稿では,メッセージパッシング方式のスケーラビリティを保った汎用かつ実証可能なGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-04T21:37:59Z) - Twin Weisfeiler-Lehman: High Expressive GNNs for Graph Classification [48.087302573188396]
本稿では,ノードラベルとノードIDを同時に渡す新しいグラフ同型テスト手法Twin-WLを提案する。
2つのツイン-GNNは、従来のメッセージパッシングGNNよりも表現力が高いことが証明された。
論文 参考訳(メタデータ) (2022-03-22T12:58:03Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Theoretically Improving Graph Neural Networks via Anonymous Walk Graph
Kernels [25.736529232578178]
グラフニューラルネットワーク(GNN)は、グラフマイニングで大きな成功を収めました。
一般的なGNNとしてMPGNNは、多くのグラフのサブ構造を識別、検出、カウントできないことが理論的に示されている。
理論的にはグラフ構造を区別する能力の強いGNNモデルであるGSKNを提案する。
論文 参考訳(メタデータ) (2021-04-07T08:50:34Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - A Novel Higher-order Weisfeiler-Lehman Graph Convolution [2.658812114255374]
2次元Weisfeiler-Lehmanテストに基づく新しいグラフ畳み込み演算子を提案する。
得られた2-WL-GNNアーキテクチャは,既存のGNNアプローチよりも識別性が高いことを示す。
論文 参考訳(メタデータ) (2020-07-01T09:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。