論文の概要: Graph Out-of-Distribution Generalization with Controllable Data
Augmentation
- arxiv url: http://arxiv.org/abs/2308.08344v1
- Date: Wed, 16 Aug 2023 13:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:37:11.165226
- Title: Graph Out-of-Distribution Generalization with Controllable Data
Augmentation
- Title(参考訳): 制御可能なデータ拡張によるグラフアウトオブディストリビューション一般化
- Authors: Bin Lu, Xiaoying Gan, Ze Zhao, Shiyu Liang, Luoyi Fu, Xinbing Wang,
Chenghu Zhou
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
- 参考スコア(独自算出の注目度): 51.17476258673232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) has demonstrated extraordinary performance in
classifying graph properties. However, due to the selection bias of training
and testing data (e.g., training on small graphs and testing on large graphs,
or training on dense graphs and testing on sparse graphs), distribution
deviation is widespread. More importantly, we often observe \emph{hybrid
structure distribution shift} of both scale and density, despite of one-sided
biased data partition. The spurious correlations over hybrid distribution
deviation degrade the performance of previous GNN methods and show large
instability among different datasets. To alleviate this problem, we propose
\texttt{OOD-GMixup} to jointly manipulate the training distribution with
\emph{controllable data augmentation} in metric space. Specifically, we first
extract the graph rationales to eliminate the spurious correlations due to
irrelevant information. Secondly, we generate virtual samples with perturbation
on graph rationale representation domain to obtain potential OOD training
samples. Finally, we propose OOD calibration to measure the distribution
deviation of virtual samples by leveraging Extreme Value Theory, and further
actively control the training distribution by emphasizing the impact of virtual
OOD samples. Extensive studies on several real-world datasets on graph
classification demonstrate the superiority of our proposed method over
state-of-the-art baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
しかし、トレーニングとテストデータの選択バイアス(例えば、小さなグラフでのトレーニング、大きなグラフでのテスト、密度の高いグラフでのトレーニング、スパースグラフでのテストなど)により、分散偏差は広く分布する。
さらに重要なことは、一方の偏りのあるデータ分割にもかかわらず、スケールと密度の両方のemph{hybrid structure distribution shift}をよく観察する。
ハイブリッド分布偏差に対する急激な相関は, 従来のGNN法の性能を低下させ, 異なるデータセット間で大きな不安定性を示す。
この問題を緩和するために、計量空間において \emph{controllable data augmentation} で訓練分布を協調的に操作する \texttt{ood-gmixup} を提案する。
具体的には,無関係な情報によるスプリアス相関を解消するために,まずグラフの合理性を抽出する。
次に、グラフ論理表現領域に摂動を持つ仮想サンプルを生成し、潜在的OODトレーニングサンプルを得る。
最後に,仮想サンプルの分布偏差を極値理論を用いて測定するためのood校正を提案し,仮想サンプルの影響を強調することでトレーニング分布を積極的に制御する。
グラフ分類に関するいくつかの実世界のデータセットに関する広範な研究は、提案手法が最先端のベースラインよりも優れていることを示す。
関連論文リスト
- Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Diving into Unified Data-Model Sparsity for Class-Imbalanced Graph
Representation Learning [30.23894624193583]
非ユークリッドグラフデータに基づくグラフニューラルネットワーク(GNN)トレーニングは、しばしば比較的高い時間コストに直面する。
グラフ決定(Graph Decantation, GraphDec)と呼ばれる統一されたデータモデル動的疎結合フレームワークを開発し, 大規模なクラス不均衡グラフデータのトレーニングによる課題に対処する。
論文 参考訳(メタデータ) (2022-10-01T01:47:00Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z) - Size-Invariant Graph Representations for Graph Classification
Extrapolations [6.143735952091508]
一般に、グラフ表現学習法は、テストデータとトレーニングデータが同じ分布から来ると仮定する。
本研究は, 因果モデルを用いて, トレインデータとテストデータの間をより外挿する近似不変表現を学習できることを示す。
論文 参考訳(メタデータ) (2021-03-08T20:01:59Z) - Hyperbolic Graph Embedding with Enhanced Semi-Implicit Variational
Inference [48.63194907060615]
半単純グラフ変分自動エンコーダを用いて,低次元グラフ潜在表現における高次統計量を取得する。
我々は、階層構造を示すグラフを効率的に表現するために、ポインケア埋め込みを通して潜在空間に双曲幾何学を組み込む。
論文 参考訳(メタデータ) (2020-10-31T05:48:34Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。