論文の概要: Graph Interpolation via Fast Fused-Gromovization
- arxiv url: http://arxiv.org/abs/2306.15963v1
- Date: Wed, 28 Jun 2023 07:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:26:33.789871
- Title: Graph Interpolation via Fast Fused-Gromovization
- Title(参考訳): 高速融合移動によるグラフ補間
- Authors: Xinyu Ma, Xu Chu, Yasha Wang, Yang Lin, Junfeng Zhao, Liantao Ma,
Wenwu Zhu
- Abstract要約: グラフニューラルネットワーク(GNN)の一般化性と堅牢性を高めるために,FGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案する。
古典的(MPNN)と先進的(Graphormer)のGNNバックボーンを利用する5つのデータセットで行われた実験は、FGWMixupの有効性を実証した。
- 参考スコア(独自算出の注目度): 42.62227851200365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data augmentation has proven to be effective in enhancing the
generalizability and robustness of graph neural networks (GNNs) for graph-level
classifications. However, existing methods mainly focus on augmenting the graph
signal space and the graph structure space independently, overlooking their
joint interaction. This paper addresses this limitation by formulating the
problem as an optimal transport problem that aims to find an optimal strategy
for matching nodes between graphs considering the interactions between graph
structures and signals. To tackle this problem, we propose a novel graph mixup
algorithm dubbed FGWMixup, which leverages the Fused Gromov-Wasserstein (FGW)
metric space to identify a "midpoint" of the source graphs. To improve the
scalability of our approach, we introduce a relaxed FGW solver that accelerates
FGWMixup by enhancing the convergence rate from $\mathcal{O}(t^{-1})$ to
$\mathcal{O}(t^{-2})$. Extensive experiments conducted on five datasets,
utilizing both classic (MPNNs) and advanced (Graphormers) GNN backbones,
demonstrate the effectiveness of FGWMixup in improving the generalizability and
robustness of GNNs.
- Abstract(参考訳): グラフデータの増大はグラフレベルの分類のためのグラフニューラルネットワーク(GNN)の一般化性と堅牢性を高めるのに有効であることが証明されている。
しかし、既存の手法は主にグラフ信号空間とグラフ構造空間を独立に拡張することに集中し、それらの相互作用を見越す。
本稿では,グラフ構造と信号間の相互作用を考慮に入れたグラフ間のノードマッチングのための最適戦略を見つけることを目的とした,最適輸送問題としてこの問題を定式化する。
この問題に対処するために、FGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案し、FGW(Fused Gromov-Wasserstein)計量空間を利用して、ソースグラフの「中間点」を同定する。
この手法のスケーラビリティを向上させるために, 収束率を$\mathcal{o}(t^{-1})$から$\mathcal{o}(t^{-2})$にすることで, fgwmixupを高速化する緩和されたfgwソルバを導入する。
古典的(MPNN)と先進的(Graphormers)のGNNバックボーンを併用した5つのデータセットで行われた大規模な実験は、GNNの一般化性と堅牢性を改善する上でFGWMixupの有効性を示した。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Graph Mixup with Soft Alignments [49.61520432554505]
本研究では,画像上での使用に成功しているミキサアップによるグラフデータの増大について検討する。
ソフトアライメントによるグラフ分類のための簡易かつ効果的な混合手法であるS-Mixupを提案する。
論文 参考訳(メタデータ) (2023-06-11T22:04:28Z) - A Generalization of ViT/MLP-Mixer to Graphs [32.86160915431453]
我々は、Graph ViT/MLP-Mixerと呼ばれる新しいGNNのクラスを紹介する。
長距離依存を捕捉し、オーバー・スカッシングの問題を緩和する。
ノード数とエッジ数にリニアな複雑さで、スピードとメモリ効率が向上する。
論文 参考訳(メタデータ) (2022-12-27T03:27:46Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - G-Mixup: Graph Data Augmentation for Graph Classification [55.63157775049443]
Mixupは、2つのランダムサンプル間の特徴とラベルを補間することにより、ニューラルネットワークの一般化とロバスト性を改善する上で優位性を示している。
グラフ分類のためのグラフを増補するために$mathcalG$-Mixupを提案し、グラフの異なるクラスのジェネレータ(すなわちグラフ)を補間する。
実験により、$mathcalG$-MixupはGNNの一般化とロバスト性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-15T04:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。