論文の概要: Hyperbolic Graph Neural Networks at Scale: A Meta Learning Approach
- arxiv url: http://arxiv.org/abs/2310.18918v1
- Date: Sun, 29 Oct 2023 06:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 15:26:14.502517
- Title: Hyperbolic Graph Neural Networks at Scale: A Meta Learning Approach
- Title(参考訳): 大規模双曲グラフニューラルネットワーク:メタラーニングアプローチ
- Authors: Nurendra Choudhary and Nikhil Rao and Chandan K. Reddy
- Abstract要約: 本稿では,ノード分類とリンク予測のための新しい手法であるHyperbolic GRAph Meta Learner (H-GRAM)を提案する。
H-GRAMは、ハイパーボリックなメタグラデーションとラベルのハイパーボリックなプロトネットという形で、サポートローカルなサブグラフの集合から転送可能な情報を学習する。
比較分析の結果,H-GRAMは複数の難易度設定で情報を効果的に学習し,転送することがわかった。
- 参考スコア(独自算出の注目度): 19.237565246362134
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The progress in hyperbolic neural networks (HNNs) research is hindered by
their absence of inductive bias mechanisms, which are essential for
generalizing to new tasks and facilitating scalable learning over large
datasets. In this paper, we aim to alleviate these issues by learning
generalizable inductive biases from the nodes' local subgraph and transfer them
for faster learning over new subgraphs with a disjoint set of nodes, edges, and
labels in a few-shot setting. We introduce a novel method, Hyperbolic GRAph
Meta Learner (H-GRAM), that, for the tasks of node classification and link
prediction, learns transferable information from a set of support local
subgraphs in the form of hyperbolic meta gradients and label hyperbolic
protonets to enable faster learning over a query set of new tasks dealing with
disjoint subgraphs. Furthermore, we show that an extension of our meta-learning
framework also mitigates the scalability challenges seen in HNNs faced by
existing approaches. Our comparative analysis shows that H-GRAM effectively
learns and transfers information in multiple challenging few-shot settings
compared to other state-of-the-art baselines. Additionally, we demonstrate
that, unlike standard HNNs, our approach is able to scale over large graph
datasets and improve performance over its Euclidean counterparts.
- Abstract(参考訳): 双曲型ニューラルネットワーク(HNN)の研究の進歩は、新しいタスクへの一般化と大規模データセットでのスケーラブルな学習を促進するために不可欠である誘導的バイアス機構の欠如によって妨げられている。
本稿では,ノードの局所部分グラフから一般化した帰納的バイアスを学習し,ノード,エッジ,ラベルを分割した新しい部分グラフ上での学習を短時間で行うことで,これらの問題を緩和することを目的とする。
本稿では,ノード分類とリンク予測のタスクに対して,ハイパーボリックなメタグラデーションとラベルのハイパーボリックなプロトネットという形でサポート対象のローカルなサブグラフの集合から転送可能な情報を学習し,非結合なサブグラフを扱う新しいタスクのクエリセットを高速に学習できるようにする,新しい手法であるHyperbolic GRAph Meta Learner (H-GRAM)を提案する。
さらに、我々のメタラーニングフレームワークの拡張は、既存のアプローチが直面しているHNNのスケーラビリティ上の課題を軽減することも示している。
比較分析により,H-GRAMは,他の最先端ベースラインと比較して,複数の挑戦的な数ショット設定で情報を効果的に学習し,転送することを示した。
さらに、標準のhnnとは異なり、我々のアプローチは大規模なグラフデータセットをスケールし、euclideanよりもパフォーマンスを向上させることができることを実証します。
関連論文リスト
- LAMP: Learnable Meta-Path Guided Adversarial Contrastive Learning for Heterogeneous Graphs [22.322402072526927]
Heterogeneous Graph Contrastive Learning (HGCL)は通常、事前に定義されたメタパスを必要とする。
textsfLAMPは様々なメタパスのサブグラフを統一的で安定した構造に統合する。
textsfLAMPは、精度と堅牢性の観点から、既存の最先端の教師なしモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-09-10T08:27:39Z) - Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge from Large Language Models [30.867447814409623]
グラフニューラルネットワーク(GNN)は、グラフの基本課題であるノード分類において優れた能力を持つ。
本稿では,Large Language Models(LLM)とGNNを統合する新しい手法を提案する。
我々のモデルでは,ラベル付きデータによるノード分類精度を著しく向上し,最先端のベースラインをかなりのマージンで超えた。
論文 参考訳(メタデータ) (2024-07-19T02:34:10Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Prototype-Enhanced Hypergraph Learning for Heterogeneous Information
Networks [22.564818600608838]
異種情報ネットワークにおけるノード分類のためのプロトタイプ強化ハイパーグラフ学習手法を提案する。
提案手法はノード間の高次関係を捕捉し,メタパスに依存することなく意味情報を抽出する。
論文 参考訳(メタデータ) (2023-09-22T09:51:15Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Meta Propagation Networks for Graph Few-shot Semi-supervised Learning [39.96930762034581]
本稿では,この問題を解決するために,メタ学習アルゴリズムを用いた新しいネットワークアーキテクチャを提案する。
基本的に,我々のMeta-PNフレームワークは,メタ学習ラベルの伝搬戦略を用いて,未ラベルノード上の高品質な擬似ラベルを推論する。
我々のアプローチは、様々なベンチマークデータセットの既存の技術と比較して、容易で実質的なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2021-12-18T00:11:56Z) - Weakly-supervised Graph Meta-learning for Few-shot Node Classification [53.36828125138149]
新しいグラフメタ学習フレームワーク - Graph Hallucination Networks (Meta-GHN) を提案する。
新たなロバストネス強化エピソードトレーニングに基づいて、Meta-GHNは、弱いラベル付きデータからクリーンノード表現を幻覚させるメタ学習を行う。
大規模な実験は、既存のグラフメタ学習研究よりもMeta-GHNの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T22:22:10Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。