論文の概要: Investigating Transfer Learning in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2202.00740v1
- Date: Tue, 1 Feb 2022 20:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 02:56:58.859019
- Title: Investigating Transfer Learning in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける転送学習の検討
- Authors: Nishai Kooverjee, Steven James, Terence van Zyl
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ空間で使用するように拡張することで、ディープラーニングモデルの成功に基づいて構築される。
トランスファーラーニングは、従来のディープラーニング問題に対して非常に成功している。
本研究は,トランスファーラーニングがGNNに有効であることを示し,ソースタスクとGNNの選択が一般化可能な知識を学習する能力にどのように影響するかを説明する。
- 参考スコア(独自算出の注目度): 2.320417845168326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) build on the success of deep learning models by
extending them for use in graph spaces. Transfer learning has proven extremely
successful for traditional deep learning problems: resulting in faster training
and improved performance. Despite the increasing interest in GNNs and their use
cases, there is little research on their transferability. This research
demonstrates that transfer learning is effective with GNNs, and describes how
source tasks and the choice of GNN impact the ability to learn generalisable
knowledge. We perform experiments using real-world and synthetic data within
the contexts of node classification and graph classification. To this end, we
also provide a general methodology for transfer learning experimentation and
present a novel algorithm for generating synthetic graph classification tasks.
We compare the performance of GCN, GraphSAGE and GIN across both the synthetic
and real-world datasets. Our results demonstrate empirically that GNNs with
inductive operations yield statistically significantly improved transfer.
Further we show that similarity in community structure between source and
target tasks support statistically significant improvements in transfer over
and above the use of only the node attributes.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ空間で使用するように拡張することで、ディープラーニングモデルの成功に基づいて構築される。
トランスファー学習は、従来のディープラーニング問題において非常に成功していることが証明されている。
GNNとその利用例への関心が高まっているにもかかわらず、転送可能性についてはほとんど研究されていない。
本研究は,移動学習がGNNに対して有効であることを示し,ソースタスクとGNNの選択が一般化可能な知識を学習する能力に与える影響について述べる。
ノード分類とグラフ分類の文脈内で実世界および合成データを用いて実験を行う。
この目的のために,転送学習実験のための一般的な手法を提供し,合成グラフ分類タスクを生成する新しいアルゴリズムを提案する。
合成と実世界の両方のデータセットでGCN, GraphSAGE, GINの性能を比較した。
以上の結果より, 誘導操作によるGNNは, 統計的に有意な転写改善をもたらすことが示された。
さらに、ソースタスクとターゲットタスクのコミュニティ構造における類似性は、ノード属性のみの使用以上の転送において統計的に有意な改善をもたらすことを示す。
関連論文リスト
- Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - Efficient and effective training of language and graph neural network
models [36.00479096375565]
我々は,大規模言語モデルとグラフニューラルネットワークを協調的に学習する,効率的な言語モデルGNN(LM-GNN)を提案する。
本フレームワークの有効性は、BERTモデルの段階的微調整をまず異種グラフ情報に適用し、次にGNNモデルを用いて達成する。
我々は,LM-GNNフレームワークを異なるデータセットの性能で評価し,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-22T00:23:37Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Transfer Learning of Graph Neural Networks with Ego-graph Information
Maximization [41.867290324754094]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて優れたパフォーマンスを実現しているが、大規模グラフのトレーニングには費用がかかる。
本研究では,GNNの伝達学習のための理論的基盤と実用的有用な枠組みを確立する。
論文 参考訳(メタデータ) (2020-09-11T02:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。