論文の概要: Fused Gromov-Wasserstein Graph Mixup for Graph-level Classifications
- arxiv url: http://arxiv.org/abs/2306.15963v2
- Date: Wed, 4 Oct 2023 12:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 21:26:37.825499
- Title: Fused Gromov-Wasserstein Graph Mixup for Graph-level Classifications
- Title(参考訳): グラフレベル分類のための融合gromov-wassersteinグラフ混合
- Authors: Xinyu Ma, Xu Chu, Yasha Wang, Yang Lin, Junfeng Zhao, Liantao Ma,
Wenwu Zhu
- Abstract要約: 我々はFGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案し、FGWMixupはFused Gromov-Wasserstein計量空間のソースグラフの中間点を求める。
5つのデータセットで行った実験により、FGWMixupはGNNの一般化性と堅牢性を効果的に改善することが示された。
- 参考スコア(独自算出の注目度): 44.15102300886821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data augmentation has shown superiority in enhancing generalizability
and robustness of GNNs in graph-level classifications. However, existing
methods primarily focus on the augmentation in the graph signal space and the
graph structure space independently, neglecting the joint interaction between
them. In this paper, we address this limitation by formulating the problem as
an optimal transport problem that aims to find an optimal inter-graph node
matching strategy considering the interactions between graph structures and
signals. To solve this problem, we propose a novel graph mixup algorithm called
FGWMixup, which seeks a midpoint of source graphs in the Fused
Gromov-Wasserstein (FGW) metric space. To enhance the scalability of our
method, we introduce a relaxed FGW solver that accelerates FGWMixup by
improving the convergence rate from $\mathcal{O}(t^{-1})$ to
$\mathcal{O}(t^{-2})$. Extensive experiments conducted on five datasets using
both classic (MPNNs) and advanced (Graphormers) GNN backbones demonstrate that
FGWMixup effectively improves the generalizability and robustness of GNNs.
Codes are available at https://github.com/ArthurLeoM/FGWMixup.
- Abstract(参考訳): グラフデータの増大は、グラフレベルの分類におけるGNNの一般化性と堅牢性を高める上で優位性を示している。
しかし、既存の手法は主にグラフ信号空間とグラフ構造空間の増大に焦点を合わせ、それらの相互作用を無視している。
本稿では,グラフ構造と信号間の相互作用を考慮した最適グラフノードマッチング戦略の探索を目的とした,最適輸送問題としてこの問題を定式化する。
この問題を解決するために、FGW-Wasserstein(Fused Gromov-Wasserstein)計量空間におけるソースグラフの中間点を求めるFGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案する。
本手法のスケーラビリティを向上させるために, 収束率を$\mathcal{o}(t^{-1})$から$\mathcal{o}(t^{-2})$に改善することにより, fgwmixupを高速化する緩和fgwソルバを導入する。
古典的(MPNN)と先進的(Graphormers)のGNNバックボーンの両方を用いて5つのデータセットで実施された大規模な実験は、FGWMixupがGNNの一般化性と堅牢性を効果的に改善することを示した。
コードはhttps://github.com/ArthurLeoM/FGWMixup.comで入手できる。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Graph Mixup with Soft Alignments [49.61520432554505]
本研究では,画像上での使用に成功しているミキサアップによるグラフデータの増大について検討する。
ソフトアライメントによるグラフ分類のための簡易かつ効果的な混合手法であるS-Mixupを提案する。
論文 参考訳(メタデータ) (2023-06-11T22:04:28Z) - A Generalization of ViT/MLP-Mixer to Graphs [32.86160915431453]
我々は、Graph ViT/MLP-Mixerと呼ばれる新しいGNNのクラスを紹介する。
長距離依存を捕捉し、オーバー・スカッシングの問題を緩和する。
ノード数とエッジ数にリニアな複雑さで、スピードとメモリ効率が向上する。
論文 参考訳(メタデータ) (2022-12-27T03:27:46Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - G-Mixup: Graph Data Augmentation for Graph Classification [55.63157775049443]
Mixupは、2つのランダムサンプル間の特徴とラベルを補間することにより、ニューラルネットワークの一般化とロバスト性を改善する上で優位性を示している。
グラフ分類のためのグラフを増補するために$mathcalG$-Mixupを提案し、グラフの異なるクラスのジェネレータ(すなわちグラフ)を補間する。
実験により、$mathcalG$-MixupはGNNの一般化とロバスト性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-15T04:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。