論文の概要: Mind the Label Shift of Augmentation-based Graph OOD Generalization
- arxiv url: http://arxiv.org/abs/2303.14859v1
- Date: Mon, 27 Mar 2023 00:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 17:13:28.288644
- Title: Mind the Label Shift of Augmentation-based Graph OOD Generalization
- Title(参考訳): Augmentation-based Graph OOD Generalization のラベルシフトについて
- Authors: Junchi Yu and Jian Liang and Ran He
- Abstract要約: LiSAは、トレーニンググラフの textbfLabel-textbfinvariant textbfSubgraphs を利用して textbfAugmented環境を構築する。
LiSAは、一貫した予測関係を持つ多様な拡張環境を生成する。
ノードレベルのOODベンチマークとグラフレベルのOODベンチマークの実験により、LiSAは異なるGNNバックボーンで印象的な一般化性能を達成することが示された。
- 参考スコア(独自算出の注目度): 88.32356432272356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Out-of-distribution (OOD) generalization is an important issue for Graph
Neural Networks (GNNs). Recent works employ different graph editions to
generate augmented environments and learn an invariant GNN for generalization.
However, the label shift usually occurs in augmentation since graph structural
edition inevitably alters the graph label. This brings inconsistent predictive
relationships among augmented environments, which is harmful to generalization.
To address this issue, we propose \textbf{LiSA}, which generates
label-invariant augmentations to facilitate graph OOD generalization. Instead
of resorting to graph editions, LiSA exploits \textbf{L}abel-\textbf{i}nvariant
\textbf{S}ubgraphs of the training graphs to construct \textbf{A}ugmented
environments. Specifically, LiSA first designs the variational subgraph
generators to extract locally predictive patterns and construct multiple
label-invariant subgraphs efficiently. Then, the subgraphs produced by
different generators are collected to build different augmented environments.
To promote diversity among augmented environments, LiSA further introduces a
tractable energy-based regularization to enlarge pair-wise distances between
the distributions of environments. In this manner, LiSA generates diverse
augmented environments with a consistent predictive relationship and
facilitates learning an invariant GNN. Extensive experiments on node-level and
graph-level OOD benchmarks show that LiSA achieves impressive generalization
performance with different GNN backbones. Code is available on
\url{https://github.com/Samyu0304/LiSA}.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)の一般化はグラフニューラルネットワーク(GNN)にとって重要な問題である。
近年の研究では、拡張環境を生成し、一般化のための不変GNNを学ぶために異なるグラフエディションを使用している。
しかし、グラフ構造版が必然的にグラフラベルを変更するため、ラベルシフトは通常増大する。
これは、一般化に有害な拡張環境間の一貫性のない予測関係をもたらす。
この問題に対処するために、グラフOODの一般化を容易にするラベル不変拡張を生成する \textbf{LiSA} を提案する。
グラフエディションに頼る代わりに、LiSAはトレーニンググラフの \textbf{L}abel-\textbf{i}nvariant \textbf{S}ubgraphs を利用して、 \textbf{A}ugmented環境を構築する。
特に、LiSAは、局所的な予測パターンを抽出し、複数のラベル不変部分グラフを効率的に構築するために、変動部分グラフジェネレータを設計する。
次に、異なるジェネレータによって生成されたサブグラフを収集し、異なる拡張環境を構築する。
拡張環境間の多様性を促進するため、LiSAはさらに、環境分布間のペアワイド距離を拡大するために、トラクタブルエネルギーベースの正規化を導入する。
このように、LiSAは、一貫した予測関係を持つ多様な拡張環境を生成し、不変GNNの学習を容易にする。
ノードレベルのOODベンチマークとグラフレベルのOODベンチマークの大規模な実験は、LiSAが異なるGNNバックボーンで印象的な一般化性能を達成することを示している。
コードは \url{https://github.com/Samyu0304/LiSA} で入手できる。
関連論文リスト
- Subgraph Aggregation for Out-of-Distribution Generalization on Graphs [29.884717215947745]
グラフニューラルネットワーク(GNN)におけるアウト・オブ・ディストリビューション(OOD)の一般化は注目されている。
多様なサブグラフの集合を学習するために設計された新しいフレームワークSubGraph Aggregation(SuGAr)を提案する。
合成データセットと実世界のデータセットの両方の実験では、SuGArが最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-29T16:54:37Z) - Improving out-of-distribution generalization in graphs via hierarchical semantic environments [5.481047026874547]
グラフ毎に階層的な環境を生成する新しい手法を提案する。
我々は、同じ階層内の環境の多様性を学ぶために、我々のモデルを導く新しい学習目標を導入する。
我々のフレームワークは、それぞれIC50とEC50予測タスクの最高のベースラインに対して、1.29%と2.83%の改善を実現しています。
論文 参考訳(メタデータ) (2024-03-04T07:03:10Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization [51.913685334368104]
本稿では,変分パターンと変分パターンの混合戦略に基づく新しいグラフ不変学習手法を提案する。
本手法は, 各種分布シフト下での最先端性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-18T07:26:56Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Hybrid Augmented Automated Graph Contrastive Learning [3.785553471764994]
本稿では,Hybrid Augmented Automated Graph Contrastive Learning (HAGCL) というフレームワークを提案する。
HAGCLは機能レベルの学習可能なビュージェネレータとエッジレベルの学習可能なビュージェネレータで構成される。
特徴とトポロジの観点から最も意味のある構造を学ぶことを保証します。
論文 参考訳(メタデータ) (2023-03-24T03:26:20Z) - Finding Diverse and Predictable Subgraphs for Graph Domain
Generalization [88.32356432272356]
本稿では,不明瞭な分布シフトにより性能が低下するグラフの分布外一般化に着目した。
本稿では,DPSと呼ばれる新しいグラフ領域の一般化フレームワークを提案する。
ノードレベルのベンチマークとグラフレベルのベンチマークの両方の実験により、提案したDPSはグラフ領域の一般化タスクにおいて印象的な性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-19T07:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。