論文の概要: Self-supervision meets kernel graph neural models: From architecture to
augmentations
- arxiv url: http://arxiv.org/abs/2310.11281v1
- Date: Tue, 17 Oct 2023 14:04:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 15:39:57.874641
- Title: Self-supervision meets kernel graph neural models: From architecture to
augmentations
- Title(参考訳): 自己スーパービジョンがカーネルグラフニューラルモデルに到達:アーキテクチャから拡張へ
- Authors: Jiawang Dan, Ruofan Wu, Yunpeng Liu, Baokun Wang, Changhua Meng,
Tengfei Liu, Tianyi Zhang, Ningtao Wang, Xing Fu, Qi Li, Weiqiang Wang
- Abstract要約: カーネルグラフニューラルネットワーク(KGNN)の設計と学習の改善
我々はLGA(Latent graph augmentation)と呼ばれる新しい構造保存グラフデータ拡張法を開発した。
提案モデルは,最先端のグラフ表現学習フレームワークに匹敵する,あるいは時として優れる性能を実現する。
- 参考スコア(独自算出の注目度): 36.388069423383286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning has now become the de facto standard when
handling graph-structured data, with the framework of message-passing graph
neural networks (MPNN) being the most prevailing algorithmic tool. Despite its
popularity, the family of MPNNs suffers from several drawbacks such as
transparency and expressivity. Recently, the idea of designing neural models on
graphs using the theory of graph kernels has emerged as a more transparent as
well as sometimes more expressive alternative to MPNNs known as kernel graph
neural networks (KGNNs). Developments on KGNNs are currently a nascent field of
research, leaving several challenges from algorithmic design and adaptation to
other learning paradigms such as self-supervised learning. In this paper, we
improve the design and learning of KGNNs. Firstly, we extend the algorithmic
formulation of KGNNs by allowing a more flexible graph-level similarity
definition that encompasses former proposals like random walk graph kernel, as
well as providing a smoother optimization objective that alleviates the need of
introducing combinatorial learning procedures. Secondly, we enhance KGNNs
through the lens of self-supervision via developing a novel
structure-preserving graph data augmentation method called latent graph
augmentation (LGA). Finally, we perform extensive empirical evaluations to
demonstrate the efficacy of our proposed mechanisms. Experimental results over
benchmark datasets suggest that our proposed model achieves competitive
performance that is comparable to or sometimes outperforming state-of-the-art
graph representation learning frameworks with or without self-supervision on
graph classification tasks. Comparisons against other previously established
graph data augmentation methods verify that the proposed LGA augmentation
scheme captures better semantics of graph-level invariance.
- Abstract(参考訳): グラフ表現学習は、現在最も普及しているアルゴリズムツールであるメッセージパッシンググラフニューラルネットワーク(mpnn)のフレームワークを用いて、グラフ構造化データを扱う際のデファクトスタンダードとなっている。
人気にもかかわらず、MPNNの家族は透明性や表現性といったいくつかの欠点に悩まされている。
近年、グラフカーネルの理論を用いたグラフ上のニューラルモデルの設計は、カーネルグラフニューラルネットワーク(kgnns)として知られるmpnnの代替として、より透明で表現力に富むものになってきた。
KGNNの開発は現在、アルゴリズム設計から自己教師型学習などの他の学習パラダイムへの適応に至るまで、いくつかの課題を残している。
本稿では,KGNNの設計と学習を改善する。
まず、ランダムウォークグラフカーネルのような従来の提案を包含するより柔軟なグラフレベルの類似性定義と、組合せ学習手順を導入する必要性を緩和するスムーズな最適化目標を提供することにより、KGNNのアルゴリズム定式化を拡張する。
次に,新しい構造保存型グラフデータ拡張法である潜在グラフ拡張法(lga)の開発により,自己スーパービジョンのレンズを通してkgnnを増強する。
最後に,提案手法の有効性を実証するための広範な実験評価を行った。
ベンチマークデータセットに対する実験結果から,提案手法は,グラフ分類タスクの自己監督の有無にかかわらず,最先端のグラフ表現学習フレームワークに匹敵する,あるいは,時として優れる競合性能を実現することが示唆された。
従来のグラフデータ拡張手法との比較により,提案手法がグラフレベルの不変性のセマンティクスを向上することを確認した。
関連論文リスト
- Dual-Optimized Adaptive Graph Reconstruction for Multi-View Graph Clustering [19.419832637206138]
本稿では, DOAGC という2つの最適化された適応グラフ再構成に基づく新しいマルチビューグラフクラスタリング手法を提案する。
主に、従来のGNNの利点を維持しつつ、異種グラフ問題に対処するために、従来のGNNに適合したグラフ構造を再構築することを目的としている。
論文 参考訳(メタデータ) (2024-10-30T12:50:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Data Augmentation for Graph Neural Networks [32.24311481878144]
半教師付きノード分類を改善する文脈において,グラフニューラルネットワーク(GNN)のグラフデータ拡張について検討した。
本研究は,階層内エッジの促進とグラフ構造におけるクラス間エッジの復号化のために,クラス-ホモフィル構造を効果的に符号化できることを示唆する。
我々の主な貢献はGAugグラフデータ拡張フレームワークを導入し、これらの洞察を活用してエッジ予測によるGNNベースのノード分類の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-11T21:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。