論文の概要: Overcoming Catastrophic Forgetting in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2012.06002v1
- Date: Thu, 10 Dec 2020 22:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:36:42.920331
- Title: Overcoming Catastrophic Forgetting in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける破滅的予測の克服
- Authors: Huihui Liu, Yiding Yang, Xinchao Wang
- Abstract要約: 破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
- 参考スコア(独自算出の注目度): 50.900153089330175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting refers to the tendency that a neural network
"forgets" the previous learned knowledge upon learning new tasks. Prior methods
have been focused on overcoming this problem on convolutional neural networks
(CNNs), where the input samples like images lie in a grid domain, but have
largely overlooked graph neural networks (GNNs) that handle non-grid data. In
this paper, we propose a novel scheme dedicated to overcoming catastrophic
forgetting problem and hence strengthen continual learning in GNNs. At the
heart of our approach is a generic module, termed as topology-aware weight
preserving~(TWP), applicable to arbitrary form of GNNs in a plug-and-play
fashion. Unlike the main stream of CNN-based continual learning methods that
rely on solely slowing down the updates of parameters important to the
downstream task, TWP explicitly explores the local structures of the input
graph, and attempts to stabilize the parameters playing pivotal roles in the
topological aggregation. We evaluate TWP on different GNN backbones over
several datasets, and demonstrate that it yields performances superior to the
state of the art. Code is publicly available at
\url{https://github.com/hhliu79/TWP}.
- Abstract(参考訳): 破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ際に、以前の学習した知識を「忘れる」傾向があることを指す。
従来の手法では、グリッドドメインに画像のような入力サンプルがある畳み込みニューラルネットワーク(CNN)でこの問題を克服することに重点を置いていたが、非グリッドデータを処理するグラフニューラルネットワーク(GNN)は概ね見過ごされている。
本稿では,大惨な忘れ難題を克服し,GNNにおける継続学習を強化するための新しいスキームを提案する。
我々のアプローチの核心は汎用モジュールであり、トポロジー対応の重み保存~(TWP)と呼ばれ、プラグイン・アンド・プレイ方式で任意の形式のGNNに適用できる。
下流タスクで重要なパラメータの更新を遅くするだけに依存するcnnベースの連続学習のメインストリームとは異なり、twpは入力グラフの局所構造を明示的に探索し、トポロジー集約において重要な役割を果たすパラメータの安定化を試みる。
いくつかのデータセット上で異なるGNNバックボーン上でのTWPを評価し,その性能が最先端であることを示す。
コードは \url{https://github.com/hhliu79/TWP} で公開されている。
関連論文リスト
- Reducing Oversmoothing through Informed Weight Initialization in Graph Neural Networks [16.745718346575202]
本稿では,ノードやグラフの分類タスクにおいて,過度なスムース化を抑える新しいスキーム(G-Init)を提案する。
以上の結果から,新しい手法(G-Init)は深部GNNの過剰なスムース化を低減し,その有効利用を促進することが示唆された。
論文 参考訳(メタデータ) (2024-10-31T11:21:20Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Forward Learning of Graph Neural Networks [17.79590285482424]
バックプロパゲーション(BP)はディープニューラルネットワーク(NN)のトレーニングにおけるデファクトスタンダードである
BPは、生物学的に理解できないだけでなく、NN学習のスケーラビリティ、並列性、柔軟性を制限しているいくつかの制約を課している。
本稿では,BPの制約を回避するために,実効的なレイヤワイドローカルフォワードトレーニングを行うForwardGNNを提案する。
論文 参考訳(メタデータ) (2024-03-16T19:40:35Z) - On the Initialization of Graph Neural Networks [10.153841274798829]
グラフニューラルネットワーク層間の前方・後方伝播のばらつきを解析する。
GNN最適化(Virgo)における可変不安定化のための新しい手法を提案する。
15のデータセットで包括的な実験を行い、Virgoが優れたモデルパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-05T09:55:49Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。