論文の概要: Technical report: Graph Neural Networks go Grammatical
- arxiv url: http://arxiv.org/abs/2303.01590v3
- Date: Wed, 2 Aug 2023 05:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 17:52:54.367382
- Title: Technical report: Graph Neural Networks go Grammatical
- Title(参考訳): テクニカルレポート:グラフニューラルネットワークは文法的になる
- Authors: Jason Piquenot, Aldo Moscatelli, Maxime B\'erar, Pierre H\'eroux,
Romain raveaux, Jean-Yves Ramel, S\'ebastien Adam
- Abstract要約: 本稿では,代数言語の断片をグラフニューラルネットワーク(GNN)に正式にリンクする枠組みを提案する。
文脈自由文法(CFG)を用いて代数演算を生成規則に整理し、GNN層モデルに変換する。
いくつかの実験は、G$2$N$2$が、多くの下流タスクで他の3WL GNNよりも効率良く優れていることを示している。
- 参考スコア(独自算出の注目度): 7.265711728234509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a framework to formally link a fragment of an algebraic
language to a Graph Neural Network (GNN). It relies on Context Free Grammars
(CFG) to organise algebraic operations into generative rules that can be
translated into a GNN layer model. Since the rules and variables of a CFG
directly derived from a language contain redundancies, a grammar reduction
scheme is presented making tractable the translation into a GNN layer. Applying
this strategy, a grammar compliant with the third-order Weisfeiler-Lehman
(3-WL) test is defined from MATLANG. From this 3-WL CFG, we derive a provably
3-WL GNN model called G$^2$N$^2$. Moreover, this grammatical approach allows us
to provide algebraic formulas to count the cycles of length up to six and
chordal cycles at the edge level, which enlightens the counting power of 3-WL.
Several experiments illustrate that G$^2$N$^2$ efficiently outperforms other
3-WL GNNs on many downstream tasks.
- Abstract(参考訳): 本稿では,代数言語の断片をグラフニューラルネットワーク(GNN)に正式にリンクするフレームワークを提案する。
文脈自由文法(CFG)を用いて代数演算を生成規則に整理し、GNN層モデルに変換する。
言語から直接派生したCFGの規則と変数は冗長性を含んでいるため、文法還元スキームがGNN層への変換を可能にする。
この戦略を適用すると、3階Weisfeiler-Lehman(3-WL)テストに準拠する文法がMATLANGから定義される。
この3WL CFGから、G$^2$N$^2$と呼ばれる証明可能な3WL GNNモデルを導出する。
さらに、この文法的アプローチにより、長さのサイクルを最大6回、弦のサイクルをエッジレベルで数えるための代数式が提供され、3-wlのカウントパワーを啓蒙することができる。
いくつかの実験は、G$^2$N$^2$が、多くの下流タスクで他の3WL GNNよりも効率良く優れていることを示している。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Empowering GNNs via Edge-Aware Weisfeiler-Leman Algorithm [79.68451803954751]
メッセージパッシンググラフニューラルネットワーク(GNN)は1次元Weisfeiler-Leman (1-WL)アルゴリズムによって上界表現性を持つことが知られている。
本稿では,メッセージパッシング方式のスケーラビリティを保った汎用かつ実証可能なGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-04T21:37:59Z) - Twin Weisfeiler-Lehman: High Expressive GNNs for Graph Classification [48.087302573188396]
本稿では,ノードラベルとノードIDを同時に渡す新しいグラフ同型テスト手法Twin-WLを提案する。
2つのツイン-GNNは、従来のメッセージパッシングGNNよりも表現力が高いことが証明された。
論文 参考訳(メタデータ) (2022-03-22T12:58:03Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Theoretically Improving Graph Neural Networks via Anonymous Walk Graph
Kernels [25.736529232578178]
グラフニューラルネットワーク(GNN)は、グラフマイニングで大きな成功を収めました。
一般的なGNNとしてMPGNNは、多くのグラフのサブ構造を識別、検出、カウントできないことが理論的に示されている。
理論的にはグラフ構造を区別する能力の強いGNNモデルであるGSKNを提案する。
論文 参考訳(メタデータ) (2021-04-07T08:50:34Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - A Novel Higher-order Weisfeiler-Lehman Graph Convolution [2.658812114255374]
2次元Weisfeiler-Lehmanテストに基づく新しいグラフ畳み込み演算子を提案する。
得られた2-WL-GNNアーキテクチャは,既存のGNNアプローチよりも識別性が高いことを示す。
論文 参考訳(メタデータ) (2020-07-01T09:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。