論文の概要: Unifying Invariant and Variant Features for Graph Out-of-Distribution via Probability of Necessity and Sufficiency
- arxiv url: http://arxiv.org/abs/2407.15273v1
- Date: Sun, 21 Jul 2024 21:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 16:40:17.709647
- Title: Unifying Invariant and Variant Features for Graph Out-of-Distribution via Probability of Necessity and Sufficiency
- Title(参考訳): グラフアウトオブディストリビューションのための不変性と可変性の統合
- Authors: Xuexin Chen, Ruichu Cai, Kaitao Zheng, Zhifan Jiang, Zhengting Huang, Zhifeng Hao, Zijian Li,
- Abstract要約: 本稿では,必要十分かつ必要な不変部分構造を抽出するために,PNS(Probability of Necessity and Sufficiency)を活用することを提案する。
また、ラベルに関連する領域不変部分グラフを活用し、アンサンブル方式で一般化性能を向上する。
実験の結果,SNIGLモデルは6つの公開ベンチマークにおいて最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 18.564387153282293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Out-of-Distribution (OOD), requiring that models trained on biased data generalize to the unseen test data, has considerable real-world applications. One of the most mainstream methods is to extract the invariant subgraph by aligning the original and augmented data with the help of environment augmentation. However, these solutions might lead to the loss or redundancy of semantic subgraphs and result in suboptimal generalization. To address this challenge, we propose exploiting Probability of Necessity and Sufficiency (PNS) to extract sufficient and necessary invariant substructures. Beyond that, we further leverage the domain variant subgraphs related to the labels to boost the generalization performance in an ensemble manner. Specifically, we first consider the data generation process for graph data. Under mild conditions, we show that the sufficient and necessary invariant subgraph can be extracted by minimizing an upper bound, built on the theoretical advance of the probability of necessity and sufficiency. To further bridge the theory and algorithm, we devise the model called Sufficiency and Necessity Inspired Graph Learning (SNIGL), which ensembles an invariant subgraph classifier on top of latent sufficient and necessary invariant subgraphs, and a domain variant subgraph classifier specific to the test domain for generalization enhancement. Experimental results demonstrate that our SNIGL model outperforms the state-of-the-art techniques on six public benchmarks, highlighting its effectiveness in real-world scenarios.
- Abstract(参考訳): Graph Out-of-Distribution (OOD)は、バイアスのあるデータに基づいてトレーニングされたモデルが、目に見えないテストデータに一般化することを要求している。
最も主流の手法の1つは、環境拡張の助けを借りて、原データと拡張データを整列させることによって不変部分グラフを抽出することである。
しかし、これらの解は意味的部分グラフの損失や冗長性を招き、最適下一般化をもたらす可能性がある。
この課題に対処するために,必要十分かつ必要な不変部分構造を抽出するために,PNS(Probability of Necessity and Sufficiency)を活用することを提案する。
さらに、ラベルに関連する領域不変部分グラフを活用して、一般化性能をアンサンブル的に向上させる。
具体的には、まず、グラフデータのデータ生成プロセスについて検討する。
穏やかな条件下では,必要十分かつ必要な不変部分グラフは,必要十分かつ十分である確率の理論的進歩に基づいて構築された上界を最小化することにより抽出可能であることを示す。
さらにこの理論とアルゴリズムを橋渡しするため,SNIGL (Sufficiency and Necessity Inspireed Graph Learning) と呼ばれるモデルを構築した。
実験の結果,SNIGLモデルは6つの公開ベンチマークにおいて最先端技術よりも優れており,実世界のシナリオにおけるその有効性を強調している。
関連論文リスト
- HG-Adapter: Improving Pre-Trained Heterogeneous Graph Neural Networks with Dual Adapters [53.97380482341493]
事前学習, 即時学習」は, 事前学習したヘテロジニアスグラフニューラルネットワーク(HGNN)のチューニング性能を示す。
本稿では、2つの新しいアダプタと潜在的ラベル付きデータ拡張を組み合わせた統合フレームワークを提案し、事前学習されたHGNNモデルの一般化を改善する。
論文 参考訳(メタデータ) (2024-11-02T06:43:54Z) - Subgraph Aggregation for Out-of-Distribution Generalization on Graphs [29.884717215947745]
グラフニューラルネットワーク(GNN)におけるアウト・オブ・ディストリビューション(OOD)の一般化は注目されている。
多様なサブグラフの集合を学習するために設計された新しいフレームワークSubGraph Aggregation(SuGAr)を提案する。
合成データセットと実世界のデータセットの両方の実験では、SuGArが最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-29T16:54:37Z) - Unifying Invariance and Spuriousity for Graph Out-of-Distribution via
Probability of Necessity and Sufficiency [19.49531172542614]
Invariant Substructure (PNSIS) の抽出に必要かつ十分である確率を利用する統一的な枠組みを提案する。
いくつかのベンチマークでグラフOODの最先端技術よりも優れています。
論文 参考訳(メタデータ) (2024-02-14T13:31:53Z) - Invariant Graph Transformer [0.0]
グラフ機械学習の文脈では、グラフ合理化はモデルの性能を高めることができる。
抽出された有理部分グラフの識別力を確保するために「干渉」と呼ばれる重要な手法が適用される。
本稿では,グラフデータに対する適切な介入戦略を提案する。
論文 参考訳(メタデータ) (2023-12-13T02:56:26Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Joint Graph Learning and Model Fitting in Laplacian Regularized
Stratified Models [5.933030735757292]
ラプラシア正規化成層モデル(Laplacian regularized Stratified Model、LRSM)は、サブプロブレムの明示的または暗黙的なネットワーク構造を利用するモデルである。
本稿では,LRSMにおけるグラフ重みの重要性と感度を示し,その感度が任意に大きいことを示す。
本稿では,1つの最適化問題を解くことで,モデルパラメータを適合させながらグラフを共同学習する汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T06:06:29Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Invariance Principle Meets Out-of-Distribution Generalization on Graphs [66.04137805277632]
グラフの複素性質は、OOD一般化の不変原理の採用を妨げている。
OODメソッドでしばしば必要とされるドメインや環境のパーティションは、グラフを得るために取得するのにコストがかかる。
コントラスト戦略を用いて,このプロセスを明確にモデル化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-11T04:38:39Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Crime Prediction with Graph Neural Networks and Multivariate Normal
Distributions [18.640610803366876]
グラフ畳み込みネットワーク(GCN)のフレキシブルな構造を利用して,高分解能領域における疎結合問題に取り組む。
グラフ畳み込みGated Recurrent Units (Graph-ConvGRU) を用いてモデルを構築し,空間的・時間的・カテゴリー的関係を学習する。
モデルが生成性だけでなく,正確性も示しています。
論文 参考訳(メタデータ) (2021-11-29T17:37:01Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。