論文の概要: Graph Condensation via Receptive Field Distribution Matching
- arxiv url: http://arxiv.org/abs/2206.13697v1
- Date: Tue, 28 Jun 2022 02:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:34:08.992687
- Title: Graph Condensation via Receptive Field Distribution Matching
- Title(参考訳): 受容場分布マッチングによるグラフ凝縮
- Authors: Mengyang Liu, Shanchuan Li, Xinshi Chen, Le Song
- Abstract要約: 本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
- 参考スコア(独自算出の注目度): 61.71711656856704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) enable the analysis of graphs using deep
learning, with promising results in capturing structured information in graphs.
This paper focuses on creating a small graph to represent the original graph,
so that GNNs trained on the size-reduced graph can make accurate predictions.
We view the original graph as a distribution of receptive fields and aim to
synthesize a small graph whose receptive fields share a similar distribution.
Thus, we propose Graph Condesation via Receptive Field Distribution Matching
(GCDM), which is accomplished by optimizing the synthetic graph through the use
of a distribution matching loss quantified by maximum mean discrepancy (MMD).
Additionally, we demonstrate that the synthetic graph generated by GCDM is
highly generalizable to a variety of models in evaluation phase and that the
condensing speed is significantly improved using this framework.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、ディープラーニングを使用してグラフの解析を可能にする。
本稿では、元のグラフを表す小さなグラフを作成することに焦点を当て、gnnを縮小したグラフでトレーニングすることで正確な予測を行うことができる。
我々は、元のグラフを受容場分布と捉え、受容場が同様の分布を持つ小さなグラフを合成することを目指している。
そこで本研究では,最大平均偏差(mmd)で定量化された分布マッチング損失を用いて合成グラフを最適化し,レセプティブ場分布マッチング(gcdm)によるグラフ会議を提案する。
さらに,GCDMにより生成された合成グラフは,評価フェーズにおける各種モデルに対して高い一般化性を示し,このフレームワークを用いて凝縮速度を著しく向上することを示した。
関連論文リスト
- Graph Neural Networks with a Distribution of Parametrized Graphs [27.40566674759208]
複数のグラフをパラメータ化して生成するために潜在変数を導入する。
予測最大化フレームワークにおいて,ネットワークパラメータの最大推定値を得る。
論文 参考訳(メタデータ) (2023-10-25T06:38:24Z) - GDM: Dual Mixup for Graph Classification with Limited Supervision [27.8982897698616]
グラフニューラルネットワーク(GNN)は、グラフ分類タスクにおいて優れたパフォーマンスを得るために、多数のラベル付きグラフサンプルを必要とする。
ラベル付きグラフサンプルの減少に伴い, GNNの性能は著しく低下する。
本稿では,新しいラベル付きグラフサンプルを生成するための混合グラフ拡張法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:17:10Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - A Spectral Analysis of Graph Neural Networks on Dense and Sparse Graphs [13.954735096637298]
そこで我々は,グラフスペクトルの空間分布がグラフスペクトルに与える影響を解析し,グラフニューラルネットワーク(GNN)の高密度グラフとスパースグラフのノード分類における性能について検討した。
GNNはスパースグラフのスペクトル法よりも優れており、これらの結果を合成グラフと実グラフの両方で数値例で示すことができる。
論文 参考訳(メタデータ) (2022-11-06T22:38:13Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。