論文の概要: Size-Invariant Graph Representations for Graph Classification
Extrapolations
- arxiv url: http://arxiv.org/abs/2103.05045v1
- Date: Mon, 8 Mar 2021 20:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:32:36.355817
- Title: Size-Invariant Graph Representations for Graph Classification
Extrapolations
- Title(参考訳): グラフ分類外挿のためのサイズ不変グラフ表現
- Authors: Beatrice Bevilacqua, Yangze Zhou, Bruno Ribeiro
- Abstract要約: 一般に、グラフ表現学習法は、テストデータとトレーニングデータが同じ分布から来ると仮定する。
本研究は, 因果モデルを用いて, トレインデータとテストデータの間をより外挿する近似不変表現を学習できることを示す。
- 参考スコア(独自算出の注目度): 6.143735952091508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In general, graph representation learning methods assume that the test and
train data come from the same distribution. In this work we consider an
underexplored area of an otherwise rapidly developing field of graph
representation learning: The task of out-of-distribution (OOD) graph
classification, where train and test data have different distributions, with
test data unavailable during training. Our work shows it is possible to use a
causal model to learn approximately invariant representations that better
extrapolate between train and test data. Finally, we conclude with synthetic
and real-world dataset experiments showcasing the benefits of representations
that are invariant to train/test distribution shifts.
- Abstract(参考訳): 一般に、グラフ表現学習法は、テストデータとトレーニングデータが同じ分布から来ると仮定する。
本研究では,グラフ表現学習の分野の未熟な分野について考察する: トレーニング中にテストデータが利用できない,トレーニングデータとテストデータが異なる分布を持つ,アウト・オブ・ディストリビューション(ood)グラフ分類の課題。
本研究は, 因果モデルを用いて, トレインデータとテストデータの間をより外挿する近似不変表現を学習できることを示す。
最後に、合成および実世界のデータセット実験により、トレーニング/テストの分散シフトに不変な表現の利点を示す。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Metric Distribution to Vector: Constructing Data Representation via
Broad-Scale Discrepancies [15.40538348604094]
本稿では,各データに対するベクトル表現に分布特性を抽出するために, $mathbfMetricDistribution2vec$ という新しい埋め込み方式を提案する。
本研究では,広範囲な実世界構造グラフデータセット上での教師付き予測タスクにおける表現法の適用と有効性を示す。
論文 参考訳(メタデータ) (2022-10-02T03:18:30Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。