論文の概要: Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization
- arxiv url: http://arxiv.org/abs/2312.10988v1
- Date: Mon, 18 Dec 2023 07:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:51:06.498031
- Title: Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization
- Title(参考訳): 外部分布一般化のためのグラフ共混合によるグラフ不変学習
- Authors: Tianrui Jia, Haoyang Li, Cheng Yang, Tao Tao, Chuan Shi
- Abstract要約: 本稿では,変分パターンと変分パターンの混合戦略に基づく新しいグラフ不変学習手法を提案する。
本手法は, 各種分布シフト下での最先端性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 51.913685334368104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph neural networks (GNNs) have been demonstrated to perform well in graph
representation learning, but always lacking in generalization capability when
tackling out-of-distribution (OOD) data. Graph invariant learning methods,
backed by the invariance principle among defined multiple environments, have
shown effectiveness in dealing with this issue. However, existing methods
heavily rely on well-predefined or accurately generated environment partitions,
which are hard to be obtained in practice, leading to sub-optimal OOD
generalization performances. In this paper, we propose a novel graph invariant
learning method based on invariant and variant patterns co-mixup strategy,
which is capable of jointly generating mixed multiple environments and
capturing invariant patterns from the mixed graph data. Specifically, we first
adopt a subgraph extractor to identify invariant subgraphs. Subsequently, we
design one novel co-mixup strategy, i.e., jointly conducting environment Mixup
and invariant Mixup. For the environment Mixup, we mix the variant
environment-related subgraphs so as to generate sufficiently diverse multiple
environments, which is important to guarantee the quality of the graph
invariant learning. For the invariant Mixup, we mix the invariant subgraphs,
further encouraging to capture invariant patterns behind graphs while getting
rid of spurious correlations for OOD generalization. We demonstrate that the
proposed environment Mixup and invariant Mixup can mutually promote each other.
Extensive experiments on both synthetic and real-world datasets demonstrate
that our method significantly outperforms state-of-the-art under various
distribution shifts.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ表現学習においてよく機能することが実証されているが、アウト・オブ・ディストリビューション(OOD)データを扱う場合、常に一般化能力に欠ける。
定義された複数の環境間の不変原理を背景としたグラフ不変学習手法は,この問題に対処する上で有効であることを示す。
しかし、既存の手法はよく定義された、あるいは正確に生成された環境分割に大きく依存しており、実際は得られにくいため、OODの準最適一般化性能に繋がる。
本稿では,混合した複数の環境を共同で生成し,混合したグラフデータから不変パターンをキャプチャできる,不変パターンと変種パターンの共混合戦略に基づく新しいグラフ不変学習手法を提案する。
具体的には、まず、不変部分グラフを識別する部分グラフ抽出器を採用する。
その後、我々は新しい混合戦略、すなわち共同実行環境ミックスアップと不変ミックスアップを設計する。
環境混合では, 変動環境関連サブグラフを混在させて, 多様な環境を十分に生成し, グラフ不変学習の品質を保証することが重要である。
invariant mixupでは、不変部分グラフを混合し、さらに、ood一般化のためのスプリアス相関を取り除きながら、グラフの背後にある不変パターンをキャプチャすることを奨励する。
提案する環境ミックスアップと不変ミックスアップは相互に促進可能であることを示す。
人工的および実世界の両方のデータセットに対する大規模な実験により、我々の手法は様々な分布シフトの下で最先端を著しく上回ることを示した。
関連論文リスト
- GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - Improving out-of-distribution generalization in graphs via hierarchical semantic environments [5.481047026874547]
グラフ毎に階層的な環境を生成する新しい手法を提案する。
我々は、同じ階層内の環境の多様性を学ぶために、我々のモデルを導く新しい学習目標を導入する。
我々のフレームワークは、それぞれIC50とEC50予測タスクの最高のベースラインに対して、1.29%と2.83%の改善を実現しています。
論文 参考訳(メタデータ) (2024-03-04T07:03:10Z) - Does Invariant Graph Learning via Environment Augmentation Learn
Invariance? [39.08988313527199]
不変グラフ表現学習は、グラフの分布外一般化のために異なる環境からデータ間の不変性を学習することを目的としている。
我々は,不変グラフ学習のための変分十分性や変分整合性を含む,最小限の仮定のセットを開発する。
我々は,最大不変部分グラフをプロキシ予測に抽出することにより,OODの一般化を成功させるために,基礎となる不変部分グラフを確実に同定することを示す。
論文 参考訳(メタデータ) (2023-10-29T14:57:37Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - SwinGNN: Rethinking Permutation Invariance in Diffusion Models for Graph Generation [15.977241867213516]
置換同変ネットワークに基づく拡散モデルは、グラフデータの置換不変分布を学習することができる。
我々は、効率的なエッジツーエッジ2-WLメッセージパッシングネットワークを利用する、$textitSwinGNN$と呼ばれる不変な拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-07-04T10:58:42Z) - Mind the Label Shift of Augmentation-based Graph OOD Generalization [88.32356432272356]
LiSAは、トレーニンググラフの textbfLabel-textbfinvariant textbfSubgraphs を利用して textbfAugmented環境を構築する。
LiSAは、一貫した予測関係を持つ多様な拡張環境を生成する。
ノードレベルのOODベンチマークとグラフレベルのOODベンチマークの実験により、LiSAは異なるGNNバックボーンで印象的な一般化性能を達成することが示された。
論文 参考訳(メタデータ) (2023-03-27T00:08:45Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - Invariance Principle Meets Out-of-Distribution Generalization on Graphs [66.04137805277632]
グラフの複素性質は、OOD一般化の不変原理の採用を妨げている。
OODメソッドでしばしば必要とされるドメインや環境のパーティションは、グラフを得るために取得するのにコストがかかる。
コントラスト戦略を用いて,このプロセスを明確にモデル化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-11T04:38:39Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。