論文の概要: The Transferability of Downsampling Sparse Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2408.17274v1
- Date: Fri, 30 Aug 2024 13:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 15:18:38.039651
- Title: The Transferability of Downsampling Sparse Graph Convolutional Networks
- Title(参考訳): スパースグラフ畳み込みネットワークのダウンサンプリング可能性
- Authors: Qinji Shu, Hang Sheng, Hui Feng, Bo Hu,
- Abstract要約: 本稿では,スパースランダムグラフモデルに基づく大規模スパースグラフダウンサンプリング手法を提案する。
我々は、スパースグラフ畳み込みネットワークのダウンサンプリングに縛られた理論的転送可能性を得る。
- 参考スコア(独自算出の注目度): 6.111849924173924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a large-scale sparse graph downsampling method based on a sparse random graph model, which allows for the adjustment of different sparsity levels. We combine sparsity and topological similarity: the sparse graph model reduces the node connection probability as the graph size increases, while the downsampling method preserves a specific topological connection pattern during this change. Based on the downsampling method, we derive a theoretical transferability bound about downsampling sparse graph convolutional networks (GCNs), that higher sampling rates, greater average degree expectations, and smaller initial graph sizes lead to better downsampling transferability performance.
- Abstract(参考訳): 本稿では,スパースグラフモデルに基づく大規模スパースグラフダウンサンプリング手法を提案する。
スパースグラフモデルでは,グラフサイズが大きくなるにつれてノード接続確率が減少し,ダウンサンプリング法では特定のトポロジカル接続パターンが維持される。
ダウンサンプリング法に基づいて、スパルスグラフ畳み込みネットワーク(GCN)のダウンサンプリングに関する理論的転送可能性(英語版)を導出し、より高いサンプリング率、平均次期待値、より小さい初期グラフサイズにより、ダウンサンプリングの転送性能が向上する。
関連論文リスト
- Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Recognizing Predictive Substructures with Subgraph Information
Bottleneck [97.19131149357234]
IB-subgraph というサブグラフを認識するための新しいサブグラフ情報ボトルネック(SIB)フレームワークを提案する。
相互情報の抽出性とグラフデータの離散的性質は、SIBの目的を最適化することが難しいことで知られている。
グラフ学習と大規模ポイントクラウドタスクの実験は、ib-subgraphの優れた特性を示している。
論文 参考訳(メタデータ) (2021-03-20T11:19:43Z) - On the Importance of Sampling in Learning Graph Convolutional Networks [13.713485304798368]
Graph Convolutional Networks (GCNs) は、様々なグラフ関連アプリケーションにおいて、目覚ましい進歩を遂げている。
その成功にもかかわらず、大きなグラフ上でのgcnのトレーニングは計算とメモリの問題に苦しむ。
メモリ予算下で任意のサンプリングメソッドを高速化できる一般的なtextbftextitdoubly variance reductionスキーマを記述・解析する。
論文 参考訳(メタデータ) (2021-03-03T21:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。