論文の概要: Pruning and Quantization Impact on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.22058v1
- Date: Fri, 24 Oct 2025 22:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.490114
- Title: Pruning and Quantization Impact on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるプルーニングと量子化の影響
- Authors: Khatoon Khedri, Reza Rawassizadeh, Qifu Wen, Mehdi Hosseinzadeh,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データからの学習を高精度に行う。
一般的なニューラルネットワーク圧縮技術には、プルーニングと量子化の2つがある。
異なるGNNモデルに対する3つのプルーニング法と3つの量子化法の効果を実験的に検討した。
- 参考スコア(独自算出の注目度): 3.3262657112288196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are known to operate with high accuracy on learning from graph-structured data, but they suffer from high computational and resource costs. Neural network compression methods are used to reduce the model size while maintaining reasonable accuracy. Two of the common neural network compression techniques include pruning and quantization. In this research, we empirically examine the effects of three pruning methods and three quantization methods on different GNN models, including graph classification tasks, node classification tasks, and link prediction. We conducted all experiments on three graph datasets, including Cora, Proteins, and BBBP. Our findings demonstrate that unstructured fine-grained and global pruning can significantly reduce the model's size(50\%) while maintaining or even improving precision after fine-tuning the pruned model. The evaluation of different quantization methods on GNN shows diverse impacts on accuracy, inference time, and model size across different datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データからの学習において高い精度で動作することが知られているが、高い計算量とリソースコストに悩まされている。
ニューラルネットワーク圧縮法は、適切な精度を維持しながら、モデルサイズを減らすために用いられる。
一般的なニューラルネットワーク圧縮技術には、プルーニングと量子化の2つがある。
本研究では,グラフ分類タスク,ノード分類タスク,リンク予測を含む3つのプルーニング手法と3つの量子化手法が,異なるGNNモデルに与える影響を実証的に検討する。
我々は,Cora,Proteins,BBBPの3つのグラフデータセットを用いて全実験を行った。
その結果, 細粒度, グローバルプルーニングは, 微粒化後の精度を維持・改善しつつ, モデルサイズ(50\%)を著しく低減できることがわかった。
GNNにおける異なる量子化手法の評価は、異なるデータセットの精度、推測時間、モデルサイズに様々な影響を与えることを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - What Makes Graph Neural Networks Miscalibrated? [48.00374886504513]
グラフニューラルネットワーク(GNN)の校正特性に関する系統的研究を行う。
我々は,GNNのキャリブレーションに影響を与える5つの要因を同定する: 一般信頼度傾向, ノード単位の予測分布の多様性, 訓練ノード間距離, 相対信頼度, 近傍類似度。
我々は,グラフニューラルネットワークのキャリブレーションに適した新しいキャリブレーション手法であるグラフアテンション温度スケーリング(GATS)を設計する。
論文 参考訳(メタデータ) (2022-10-12T16:41:42Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - On Calibration of Graph Neural Networks for Node Classification [29.738179864433445]
グラフニューラルネットワークは、ノード分類やリンク予測といったタスクのためのエンティティとエッジの埋め込みを学ぶ。
これらのモデルは精度で優れた性能を発揮するが、予測に付随する信頼性スコアは校正されないかもしれない。
本稿では,近隣ノードを考慮に入れたトポロジ対応キャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2022-06-03T13:48:10Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Multivariate Time Series Forecasting with Transfer Entropy Graph [5.179058210068871]
我々はニューラルグランガー因果性(CauGNN)を用いた新しいエンドツーエンドディープラーニングモデル、グラフニューラルネットワークを提案する。
各変数はグラフノードと見なされ、各エッジは変数間のカジュアルな関係を表す。
提案したCauGNNを評価するために,実世界の3つのベンチマークデータセットが使用されている。
論文 参考訳(メタデータ) (2020-05-03T20:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。