論文の概要: Get Rid of Suspended Animation Problem: Deep Diffusive Neural Network on
Graph Semi-Supervised Classification
- arxiv url: http://arxiv.org/abs/2001.07922v1
- Date: Wed, 22 Jan 2020 09:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 17:46:54.637988
- Title: Get Rid of Suspended Animation Problem: Deep Diffusive Neural Network on
Graph Semi-Supervised Classification
- Title(参考訳): サスペンションアニメーション問題を取り除く - グラフ半教師付き分類による深い拡散型ニューラルネットワーク
- Authors: Jiawei Zhang
- Abstract要約: 本稿では,グラフ表現学習とノード分類のための新しいグラフニューラルネットワーク,すなわちDIFNETを提案する。
この論文では、DIFNETをいくつかの最先端グラフニューラルネットワークモデルと比較する大規模な実験を行う。
- 参考スコア(独自算出の注目度): 10.879701971582502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing graph neural networks may suffer from the "suspended animation
problem" when the model architecture goes deep. Meanwhile, for some graph
learning scenarios, e.g., nodes with text/image attributes or graphs with
long-distance node correlations, deep graph neural networks will be necessary
for effective graph representation learning. In this paper, we propose a new
graph neural network, namely DIFNET (Graph Diffusive Neural Network), for graph
representation learning and node classification. DIFNET utilizes both neural
gates and graph residual learning for node hidden state modeling, and includes
an attention mechanism for node neighborhood information diffusion. Extensive
experiments will be done in this paper to compare DIFNET against several
state-of-the-art graph neural network models. The experimental results can
illustrate both the learning performance advantages and effectiveness of
DIFNET, especially in addressing the "suspended animation problem".
- Abstract(参考訳): モデルアーキテクチャが深くなると、既存のグラフニューラルネットワークは"制限されたアニメーション問題"に苦しむ可能性がある。
一方、例えばテキスト/イメージ属性を持つノードや長距離ノード相関を持つグラフなどのグラフ学習シナリオでは、グラフ表現学習にディープグラフニューラルネットワークが必要である。
本稿では,グラフ表現学習とノード分類のための新しいグラフニューラルネットワークであるDIFNET(Graph Diffusive Neural Network)を提案する。
DIFNETはノード隠れ状態モデリングにニューラルゲートとグラフ残差学習の両方を使用し、ノード近傍情報拡散のための注意機構を含む。
本稿では,difnetを最先端のグラフニューラルネットワークモデルと比較するために,広範な実験を行う。
実験結果から,difnetの学習性能の利点と効果,特に「分散アニメーション問題」に対処できることを示すことができる。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Graph Neural Network with Negative Message Passing for Graph Coloring [12.501032566933178]
本稿では,グラフカラー化のためのグラフネットワークモデルを提案する。
我々は,より効果的な情報交換を行うために,提案したグラフニューラルネットワークに負のメッセージパッシングを導入する。
ノードの自己情報を考慮した新たな損失関数が提案され,学習プロセスが促進される。
論文 参考訳(メタデータ) (2023-01-26T15:08:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph Neural Diffusion Networks for Semi-supervised Learning [6.376489604292251]
Graph Convolutional Networks (GCN)は、グラフに基づく半教師付き学習のパイオニアモデルである。
本稿では,局所的およびグローバルな近隣情報を利用したニューラルネット(グラフニューラルディフュージョンネットワーク)と呼ばれる新しいグラフニューラルネットワークを提案する。
ニューラルネットワークの採用により、ニューラルネットワークの拡散は異なるデータセットに適応できる。
論文 参考訳(メタデータ) (2022-01-24T14:07:56Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Learning Graph Representations [0.0]
グラフニューラルネットワーク(GNN)は、大きな動的グラフデータセットに対する洞察を得るための効率的な方法である。
本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダとソーシャル・テンポラル・グラフ・ニューラルネットワークについて論じる。
論文 参考訳(メタデータ) (2021-02-03T12:07:55Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。