論文の概要: Learning to Pool in Graph Neural Networks for Extrapolation
- arxiv url: http://arxiv.org/abs/2106.06210v1
- Date: Fri, 11 Jun 2021 07:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 01:13:29.739812
- Title: Learning to Pool in Graph Neural Networks for Extrapolation
- Title(参考訳): グラフニューラルネットワーク外挿のためのプール学習
- Authors: Jihoon Ko, Taehyung Kwon, Kijung Shin, Juho Lee
- Abstract要約: 我々は、任意のタスクに対して訓練可能な、$Lp$ノルムライクなプーリング関数であるGNPを提示する。
我々は、全てのプール関数をGNPに置き換えることによって、GNNが多くのノードレベル、グラフレベル、およびセット関連タスクでうまく外挿できることを実験的に検証した。
- 参考スコア(独自算出の注目度): 27.879099777205205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are one of the most popular approaches to using
deep learning on graph-structured data, and they have shown state-of-the-art
performances on a variety of tasks. However, according to a recent study, a
careful choice of pooling functions, which are used for the aggregation or
readout operation in GNNs, is crucial for enabling GNNs to extrapolate. Without
the ideal combination of pooling functions, which varies across tasks, GNNs
completely fail to generalize to out-of-distribution data, while the number of
possible combinations grows exponentially with the number of layers. In this
paper, we present GNP, a $L^p$ norm-like pooling function that is trainable
end-to-end for any given task. Notably, GNP generalizes most of the widely-used
pooling functions. We verify experimentally that simply replacing all pooling
functions with GNP enables GNNs to extrapolate well on many node-level,
graph-level, and set-related tasks; and GNP sometimes performs even better than
optimal combinations of existing pooling functions.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ構造化データでディープラーニングを使用するための最も一般的なアプローチの1つであり、さまざまなタスクで最先端のパフォーマンスを示している。
しかし,近年の研究では,GNNの集計や読み出し操作に使用されるプール機能の慎重に選択することが,GNNの外挿を可能にする上で重要である。
タスク間で異なるプール関数の理想的な組み合わせがなければ、gnnは完全に分散データへの一般化に失敗し、可能な組み合わせの数は層数とともに指数関数的に増加する。
本稿では、任意のタスクに対してエンドツーエンドにトレーニング可能な、GNP($L^p$ norm-like pooling function)を提案する。
特に、GNPは広く使われているプール関数の大部分を一般化する。
実験により、すべてのプール関数をGNPに置き換えることで、GNNが多くのノードレベル、グラフレベル、セット関連タスクをうまく外挿できることが検証された。
関連論文リスト
- Diffusing to the Top: Boost Graph Neural Networks with Minimal Hyperparameter Tuning [33.948899558876604]
グラフ条件付き潜在拡散フレームワーク(GNN-Diff)を導入し,高性能なGNNを生成する。
提案手法は,小,大,長距離グラフ上のノード分類とリンク予測という4つのグラフタスクを対象とした166の実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-08T05:27:34Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Separable Gaussian Neural Networks: Structure, Analysis, and Function
Approximations [2.17301816060102]
我々は新しいフィードフォワードネットワーク-分離型ガウスニューラルネットワーク(SGNN)を提案する。
SGNNはガウス関数の分離性を利用して、データを複数の列に分割し、順次並列層にフィードする。
実験により,SGNNはGRBFNNよりも100倍の精度で高速化できることが示された。
論文 参考訳(メタデータ) (2023-08-13T03:54:30Z) - RF-GNN: Random Forest Boosted Graph Neural Network for Social Bot
Detection [10.690802468726078]
ソーシャルメディア上に多数のボットが存在することは、有害な影響をもたらす。
本稿では、RF-GNNと呼ばれるソーシャルボット検出のためのランダムフォレスト強化グラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T00:57:44Z) - Higher-order Sparse Convolutions in Graph Neural Networks [17.647346486710514]
グラフ信号のソボレフノルムに基づく新しい高次スパース畳み込みを導入する。
S-SobGNNは、最先端のいくつかの手法と比較して、全てのアプリケーションで競合性能を示す。
論文 参考訳(メタデータ) (2023-02-21T08:08:18Z) - Superiority of GNN over NN in generalizing bandlimited functions [6.3151583550712065]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Non-Local Graph Neural Networks [60.28057802327858]
本稿では,GNNに対する効果的な注意誘導ソート機能を備えた,シンプルで効果的な非局所集約フレームワークを提案する。
異種グラフデータセットを分析し,非局所的なGNNを評価するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2020-05-29T14:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。