論文の概要: Learning Parametrised Graph Shift Operators
- arxiv url: http://arxiv.org/abs/2101.10050v1
- Date: Mon, 25 Jan 2021 13:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:19:14.581465
- Title: Learning Parametrised Graph Shift Operators
- Title(参考訳): 学習パラメータグラフシフト演算子
- Authors: George Dasoulas, Johannes Lutzeyer, Michalis Vazirgiannis
- Abstract要約: ネットワークデータは暗黙的または明示的に、常にグラフシフト演算子(GSO)を使って表現される
PGSOは、最先端のGNNアーキテクチャで使用される標準GSOの代替として提案されている。
ノード分類タスクとグラフ分類タスクの両方にPGSOを組み込むことにより、最先端のGNNアーキテクチャの精度が向上する。
- 参考スコア(独自算出の注目度): 16.89638650246974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many domains data is currently represented as graphs and therefore, the
graph representation of this data becomes increasingly important in machine
learning. Network data is, implicitly or explicitly, always represented using a
graph shift operator (GSO) with the most common choices being the adjacency,
Laplacian matrices and their normalisations. In this paper, a novel
parametrised GSO (PGSO) is proposed, where specific parameter values result in
the most commonly used GSOs and message-passing operators in graph neural
network (GNN) frameworks. The PGSO is suggested as a replacement of the
standard GSOs that are used in state-of-the-art GNN architectures and the
optimisation of the PGSO parameters is seamlessly included in the model
training. It is proved that the PGSO has real eigenvalues and a set of real
eigenvectors independent of the parameter values and spectral bounds on the
PGSO are derived. PGSO parameters are shown to adapt to the sparsity of the
graph structure in a study on stochastic blockmodel networks, where they are
found to automatically replicate the GSO regularisation found in the
literature. On several real-world datasets the accuracy of state-of-the-art GNN
architectures is improved by the inclusion of the PGSO in both node- and
graph-classification tasks.
- Abstract(参考訳): 多くのドメインでは、データは現在グラフとして表現されているため、このデータのグラフ表現は機械学習においてますます重要になる。
ネットワークデータは暗黙的または明示的に、常にグラフシフト演算子(GSO)を用いて表現され、最も一般的な選択は隣接性、ラプラシア行列とその正規化である。
本稿では、グラフニューラルネットワーク(GNN)フレームワークにおいて、パラメータ値が最も一般的に使用されるGSOとメッセージパッシング演算子となる新しいパラメータGSO(PGSO)を提案する。
PGSOは、最先端のGNNアーキテクチャで使用される標準GSOの代替として提案され、PGSOパラメータの最適化はモデルトレーニングにシームレスに含まれています。
PGSOは実固有値を持ち、パラメータ値とPGSOのスペクトル境界に依存しない実固有ベクトルの集合が導出されることが証明された。
PGSOパラメータは確率的ブロックモデルネットワークの研究においてグラフ構造の空間性に適応することが示され、そこでは文献で見られるGSO正規化を自動的に複製する。
いくつかの実世界のデータセットでは、ノード分類タスクとグラフ分類タスクの両方にPGSOを組み込むことで、最先端のGNNアーキテクチャの精度が向上する。
関連論文リスト
- Centrality Graph Shift Operators for Graph Neural Networks [21.136895833789442]
我々は,グローバルな集中度指標による隣接行列の正規化を行う中心性GSO(CGSO)について検討した。
CGSOがどんなグラフニューラルネットワークでもメッセージパッシング演算子として機能するかを示す。
論文 参考訳(メタデータ) (2024-11-07T12:32:24Z) - Multi-duplicated Characterization of Graph Structures using Information
Gain Ratio for Graph Neural Networks [0.0]
グラフデータのための機械学習において、ノード分類タスクを解決するために、様々なグラフニューラルネットワーク(GNN)が提案されている。
GNN(MSI-GNN)のための情報ゲイン比(IGR)を用いたグラフ構造の多重重複特性評価法を提案する。
MSI-GNNがGCN, H2GCN, GCNIIをベンチマークグラフデータセットの平均精度で上回ることを示す。
論文 参考訳(メタデータ) (2022-12-24T08:56:21Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Graph Spectral Embedding using the Geodesic Betweeness Centrality [76.27138343125985]
本稿では、局所的な類似性、接続性、グローバル構造を教師なしで表現するグラフSylvester Embedding (GSE)を紹介する。
GSEはシルヴェスター方程式の解を用いて、ネットワーク構造と近傍の近接を1つの表現で捉える。
論文 参考訳(メタデータ) (2022-05-07T04:11:23Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Adaptive Universal Generalized PageRank Graph Neural Network [36.850433364139924]
グラフニューラルネットワーク(GNN)は、両方の証拠源を利用するように設計されている。
本稿では,GPR重みを適応的に学習する汎用PageRank (GPR) GNNアーキテクチャを提案する。
GPR-GNNは、合成データとベンチマークデータの両方の既存の技術と比較して、大幅な性能改善を提供する。
論文 参考訳(メタデータ) (2020-06-14T19:27:39Z) - Pointer Graph Networks [48.44209547013781]
グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
Pointer Graph Networks (PGNs) モデル一般化能力を改善するために、追加の推論エッジを備えた拡張セットまたはグラフ。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
論文 参考訳(メタデータ) (2020-06-11T12:52:31Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。