論文の概要: The Transferability of Downsamped Sparse Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2408.17274v2
- Date: Sun, 8 Sep 2024 09:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 23:12:22.459891
- Title: The Transferability of Downsamped Sparse Graph Convolutional Networks
- Title(参考訳): ダウンサンプリングスパースグラフ畳み込みネットワークの転送可能性
- Authors: Qinji Shu, Hang Sheng, Feng Ji, Hui Feng, Bo Hu,
- Abstract要約: スパースランダムグラフモデルに基づく新しいダウンサンプリング手法を導入し、転送エラーに対する期待上界を導出する。
その結果,より小さいグラフサイズ,高い平均度,サンプリング率の増加が,この上限値の低減に寄与していることがわかった。
このモデルに空間的類似性と空間的類似性の両方を組み込むことにより、大規模なスパースグラフのトレーニングにおいて、ダウンサンプリングのための転送誤差の上限を確立する。
- 参考スコア(独自算出の注目度): 12.629928166637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To accelerate the training of graph convolutional networks (GCNs) on real-world large-scale sparse graphs, downsampling methods are commonly employed as a preprocessing step. However, the effects of graph sparsity and topological structure on the transferability of downsampling methods have not been rigorously analyzed or theoretically guaranteed, particularly when the topological structure is affected by graph sparsity. In this paper, we introduce a novel downsampling method based on a sparse random graph model and derive an expected upper bound for the transfer error. Our findings show that smaller original graph sizes, higher expected average degrees, and increased sampling rates contribute to reducing this upper bound. Experimental results validate the theoretical predictions. By incorporating both sparsity and topological similarity into the model, this study establishes an upper bound on the transfer error for downsampling in the training of large-scale sparse graphs and provides insight into the influence of topological structure on transfer performance.
- Abstract(参考訳): 実世界の大規模スパースグラフ上でのグラフ畳み込みネットワーク(GCN)のトレーニングを高速化するために、ダウンサンプリング手法は一般的に前処理ステップとして使用される。
しかし, トポロジ的構造がダウンサンプリング法の伝達性に及ぼす影響は, 特にトポロジ的構造がグラフのスポロジ性に影響された場合, 厳密に解析あるいは理論的に保証されていない。
本稿では、スパースランダムグラフモデルに基づく新しいダウンサンプリング手法を導入し、転送エラーに対する期待上界を導出する。
その結果,より小さいグラフサイズ,高い平均度,サンプリング率の増加が,この上限値の低減に寄与していることがわかった。
実験結果は理論予測を検証した。
このモデルに空間的類似性と位相的類似性の両方を組み込むことにより、大規模スパースグラフのトレーニングにおけるダウンサンプリングの転送誤差の上限を確立し、トポロジ構造が転送性能に与える影響について考察する。
関連論文リスト
- Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Recognizing Predictive Substructures with Subgraph Information
Bottleneck [97.19131149357234]
IB-subgraph というサブグラフを認識するための新しいサブグラフ情報ボトルネック(SIB)フレームワークを提案する。
相互情報の抽出性とグラフデータの離散的性質は、SIBの目的を最適化することが難しいことで知られている。
グラフ学習と大規模ポイントクラウドタスクの実験は、ib-subgraphの優れた特性を示している。
論文 参考訳(メタデータ) (2021-03-20T11:19:43Z) - On the Importance of Sampling in Learning Graph Convolutional Networks [13.713485304798368]
Graph Convolutional Networks (GCNs) は、様々なグラフ関連アプリケーションにおいて、目覚ましい進歩を遂げている。
その成功にもかかわらず、大きなグラフ上でのgcnのトレーニングは計算とメモリの問題に苦しむ。
メモリ予算下で任意のサンプリングメソッドを高速化できる一般的なtextbftextitdoubly variance reductionスキーマを記述・解析する。
論文 参考訳(メタデータ) (2021-03-03T21:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。