論文の概要: Adversarial Causal Augmentation for Graph Covariate Shift
- arxiv url: http://arxiv.org/abs/2211.02843v1
- Date: Sat, 5 Nov 2022 07:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:57:58.649901
- Title: Adversarial Causal Augmentation for Graph Covariate Shift
- Title(参考訳): グラフ共変量シフトの逆因果拡張
- Authors: Yongduo Sui, Xiang Wang, Jiancan Wu, An Zhang, Xiangnan He
- Abstract要約: 我々は、因果的特徴はデータの安定なサブ構造であり、OOD一般化において重要な役割を担っていると論じる。
グラフ不変学習とデータ拡張の既存の戦略は、限られた環境や不安定な因果的特徴に悩まされている。
本稿では,AdvCA(Adversarial Causal Augmentation)というグラフ拡張戦略を提案する。
- 参考スコア(独自算出の注目度): 49.79119780818678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) generalization on graphs is drawing widespread
attention. However, existing efforts mainly focus on the OOD issue of
correlation shift. While another type, covariate shift, remains largely
unexplored but is the focus of this work. From a data generation view, causal
features are stable substructures in data, which play key roles in OOD
generalization. While their complementary parts, environments, are unstable
features that often lead to various distribution shifts. Correlation shift
establishes spurious statistical correlations between environments and labels.
In contrast, covariate shift means that there exist unseen environmental
features in test data. Existing strategies of graph invariant learning and data
augmentation suffer from limited environments or unstable causal features,
which greatly limits their generalization ability on covariate shift. In view
of that, we propose a novel graph augmentation strategy: Adversarial Causal
Augmentation (AdvCA), to alleviate the covariate shift. Specifically, it
adversarially augments the data to explore diverse distributions of the
environments. Meanwhile, it keeps the causal features invariant across diverse
environments. It maintains the environmental diversity while ensuring the
invariance of the causal features, thereby effectively alleviating the
covariate shift. Extensive experimental results with in-depth analyses
demonstrate that AdvCA can outperform 14 baselines on synthetic and real-world
datasets with various covariate shifts.
- Abstract(参考訳): グラフのアウト・オブ・ディストリビューション(ood)一般化は広く注目を集めている。
しかし、既存の取り組みは主に相関シフトのOOD問題に焦点を当てている。
別のタイプの共変量シフトは、ほとんど探索されていないが、この研究の焦点である。
データ生成の観点からは、因果的特徴はデータの安定したサブ構造であり、OOD一般化において重要な役割を果たす。
相補的な部分、環境は不安定な特徴であり、しばしば様々な分布シフトを引き起こす。
相関シフトは環境とラベルの間の急激な統計的相関を確立する。
対照的に、共変量シフトはテストデータに見えない環境特性が存在することを意味する。
グラフ不変学習とデータ拡張の既存の戦略は、限られた環境や不安定な因果的特徴に悩まされており、共変量シフトにおける一般化能力を著しく制限している。
そこで我々は,共変量シフトを軽減するために,新たなグラフ拡張戦略であるAdvCAを提案する。
具体的には、さまざまな環境分布を探索するためにデータを逆向きに拡張する。
一方、多様な環境にまたがる因果的特徴は不変である。
因果的特徴のばらつきを確保しつつ環境多様性を維持し、これにより共変量シフトを効果的に緩和する。
詳細な分析による大規模な実験結果から、AdvCAは様々な共変量シフトを持つ合成および実世界のデータセットで14のベースラインを上回り得ることが示された。
関連論文リスト
- Navigating Semantic Drift in Task-Agnostic Class-Incremental Learning [51.177789437682954]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、モデルが学習したクラスの知識を維持しつつ、新しいクラスを逐次学習できるようにすることを目的とする。
柔軟性と安定性のバランスをとることは、特にタスクIDが不明な場合には、依然として大きな課題である。
本研究では,平均シフト補償と共分散校正を組み合わせたセマンティックドリフト校正法を提案する。
論文 参考訳(メタデータ) (2025-02-11T13:57:30Z) - diffIRM: A Diffusion-Augmented Invariant Risk Minimization Framework for Spatiotemporal Prediction over Graphs [6.677219861416146]
実世界のデータは、アウト・オブ・ディストリビューション(OOD)問題に悩まされるため、グラフ(GSTP)に対する時間的予測は困難である。
本研究では,これらの2つの原則を組み合わせた拡散増強型不変リスク最小化(diffIRM)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-31T06:45:47Z) - Mitigating Graph Covariate Shift via Score-based Out-of-distribution Augmentation [16.59129444793973]
トレーニングとテストデータセット間の分散シフトは、グラフ学習におけるモデルパフォーマンスを著しく損なう。
本稿では,全体のグラフパターンの妥当性と安定性を保ちつつ,未知の環境特徴を合成するスコアベースのグラフ生成戦略を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-23T02:09:02Z) - Invariant Graph Learning Meets Information Bottleneck for Out-of-Distribution Generalization [9.116601683256317]
本研究では,情報ボトルネック理論に基づく不変グラフ学習(Invariant Graph Learning)という新しいフレームワークを提案する。
具体的には,環境要因に関連するタスク関連情報を圧縮する冗長フィルタを提案する。
合成と実世界の両方のデータセットを用いた実験により,OODの一般化による最先端性能の実現が実証された。
論文 参考訳(メタデータ) (2024-08-03T07:38:04Z) - Empowering Graph Invariance Learning with Deep Spurious Infomax [27.53568333416706]
本稿では,頑健かつ一般的な帰納バイアスを誘発する新しいグラフ不変性学習パラダイムを提案する。
EQuADは、合成データセットにおける様々なバイアスの度合いにまたがって安定したパフォーマンスを示し、実世界のデータセットに最大311.76%の価格で挑戦する。
論文 参考訳(メタデータ) (2024-07-13T14:18:47Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Does Invariant Graph Learning via Environment Augmentation Learn
Invariance? [39.08988313527199]
不変グラフ表現学習は、グラフの分布外一般化のために異なる環境からデータ間の不変性を学習することを目的としている。
我々は,不変グラフ学習のための変分十分性や変分整合性を含む,最小限の仮定のセットを開発する。
我々は,最大不変部分グラフをプロキシ予測に抽出することにより,OODの一般化を成功させるために,基礎となる不変部分グラフを確実に同定することを示す。
論文 参考訳(メタデータ) (2023-10-29T14:57:37Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。