論文の概要: Template based Graph Neural Network with Optimal Transport Distances
- arxiv url: http://arxiv.org/abs/2205.15733v1
- Date: Tue, 31 May 2022 12:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 14:51:24.223565
- Title: Template based Graph Neural Network with Optimal Transport Distances
- Title(参考訳): 最適移動距離を用いたテンプレートベースグラフニューラルネットワーク
- Authors: C\'edric Vincent-Cuaz, R\'emi Flamary, Marco Corneli, Titouan Vayer,
Nicolas Courty
- Abstract要約: 現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
- 参考スコア(独自算出の注目度): 11.56532171513328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Graph Neural Networks (GNN) architectures generally rely on two
important components: node features embedding through message passing, and
aggregation with a specialized form of pooling. The structural (or topological)
information is implicitly taken into account in these two steps. We propose in
this work a novel point of view, which places distances to some learnable graph
templates at the core of the graph representation. This distance embedding is
constructed thanks to an optimal transport distance: the Fused
Gromov-Wasserstein (FGW) distance, which encodes simultaneously feature and
structure dissimilarities by solving a soft graph-matching problem. We
postulate that the vector of FGW distances to a set of template graphs has a
strong discriminative power, which is then fed to a non-linear classifier for
final predictions. Distance embedding can be seen as a new layer, and can
leverage on existing message passing techniques to promote sensible feature
representations. Interestingly enough, in our work the optimal set of template
graphs is also learnt in an end-to-end fashion by differentiating through this
layer. After describing the corresponding learning procedure, we empirically
validate our claim on several synthetic and real life graph classification
datasets, where our method is competitive or surpasses kernel and GNN
state-of-the-art approaches. We complete our experiments by an ablation study
and a sensitivity analysis to parameters.
- Abstract(参考訳): 現在のグラフニューラルネットワーク(GNN)アーキテクチャは一般的に2つの重要なコンポーネントに依存している。
構造的(あるいは位相的)情報は、この2つのステップで暗黙的に考慮される。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、最適な移動距離によって構成される: ソフトグラフマッチング問題を解くことによって、特徴と構造の相似性を同時に符号化する融合グロモフ=ワッセルシュタイン距離(fgw)である。
テンプレートグラフの集合に対するFGW距離のベクトルは強い判別力を持ち、最終的な予測のために非線形分類器に送られると仮定する。
距離埋め込みは新しいレイヤと見なすことができ、既存のメッセージパッシング技術を利用して、賢明な特徴表現を促進することができる。
興味深いことに、私たちの研究では、テンプレートグラフの最適なセットも、この層を通して差別化することでエンドツーエンドで学習されます。
対応する学習手順を記述した後、本手法はカーネルやgnnの最先端のアプローチに匹敵する、いくつかの合成および実生活グラフ分類データセットの主張を実証的に検証する。
実験はアブレーション研究とパラメータに対する感度解析により完了している。
関連論文リスト
- Range-aware Positional Encoding via High-order Pretraining: Theory and Practice [14.521929085104441]
大量のグラフデータに対する教師なし事前トレーニングは、ラベル付きデータが制限された実世界のアプリケーションでは不可欠である。
本稿では,多解像度構造情報をモデル化することに焦点を当てたグラフの事前学習戦略を提案する。
このアプローチはグラフ構造にのみ依存するが、ドメインに依存しず、さまざまなドメインのデータセットに適応可能である。
論文 参考訳(メタデータ) (2024-09-27T19:53:10Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Latent Graph Inference using Product Manifolds [0.0]
遅延グラフ学習のための離散微分可能グラフモジュール(dDGM)を一般化する。
我々の新しいアプローチは、幅広いデータセットでテストされ、元のdDGMモデルよりも優れています。
論文 参考訳(メタデータ) (2022-11-26T22:13:06Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Graph Networks with Spectral Message Passing [1.0742675209112622]
本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-31T21:33:17Z) - Spectral Embedding of Graph Networks [76.27138343125985]
ローカルノードの類似性と接続性、グローバル構造をトレードオフする教師なしグラフ埋め込みを導入する。
埋め込みは一般化されたグラフ Laplacian に基づいており、固有ベクトルは1つの表現においてネットワーク構造と近傍近傍の両方をコンパクトにキャプチャする。
論文 参考訳(メタデータ) (2020-09-30T04:59:10Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Optimal Transport Graph Neural Networks [31.191844909335963]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、集約グラフ表現に平均または総和ノードを埋め込む。
本稿では,パラメトリックプロトタイプを用いたグラフ埋め込み計算モデルOT-GNNを紹介する。
論文 参考訳(メタデータ) (2020-06-08T14:57:39Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。