論文の概要: Unifying Label-inputted Graph Neural Networks with Deep Equilibrium
Models
- arxiv url: http://arxiv.org/abs/2211.10629v1
- Date: Sat, 19 Nov 2022 09:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:21:07.776800
- Title: Unifying Label-inputted Graph Neural Networks with Deep Equilibrium
Models
- Title(参考訳): 深い平衡モデルを用いたラベル入力グラフニューラルネットワークの統一化
- Authors: Yi Luo, Guiduo Duan, Guangchun Luo, Aiguo Chen
- Abstract要約: この研究はLGNNをインプリシットGNN(IGNN)の理論で解釈し、ネットワークを無限に繰り返す固定状態点を出力する。
IGNNに対する我々の改善はネットワークに依存しないものであり、それらは初めて複雑なネットワークで拡張され、大規模グラフに適用されます。
- 参考スコア(独自算出の注目度): 12.71307159013144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For node classification, Graph Neural Networks (GNN) assign predefined labels
to graph nodes according to node features propagated along the graph structure.
Apart from the traditional end-to-end manner inherited from deep learning, many
subsequent works input assigned labels into GNNs to improve their
classification performance. Such label-inputted GNNs (LGNN) combine the
advantages of learnable feature propagation and long-range label propagation,
producing state-of-the-art performance on various benchmarks. However, the
theoretical foundations of LGNNs are not well-established, and the combination
is with seam because the long-range propagation is memory-consuming for
optimization. To this end, this work interprets LGNNs with the theory of
Implicit GNN (IGNN), which outputs a fixed state point of iterating its network
infinite times and optimizes the infinite-range propagation with constant
memory consumption. Besides, previous contributions to LGNNs inspire us to
overcome the heavy computation in training IGNN by iterating the network only
once but starting from historical states, which are randomly masked in
forward-pass to implicitly guarantee the existence and uniqueness of the fixed
point. Our improvements to IGNNs are network agnostic: for the first time, they
are extended with complex networks and applied to large-scale graphs.
Experiments on two synthetic and six real-world datasets verify the advantages
of our method in terms of long-range dependencies capturing, label transitions
modelling, accuracy, scalability, efficiency, and well-posedness.
- Abstract(参考訳): ノード分類において、グラフニューラルネットワーク(gnn)は、グラフ構造に沿って伝播するノードの特徴に従って、予め定義されたラベルをグラフノードに割り当てる。
ディープラーニングから受け継いだ従来のエンドツーエンドの方法とは別に、その後の多くの作業は分類性能を改善するためにラベルをGNNに入力した。
このようなラベル入力型GNN(LGNN)は、学習可能な特徴伝搬と長距離ラベル伝搬の利点を組み合わせ、様々なベンチマークで最先端のパフォーマンスを実現する。
しかし、LGNNの理論的基礎は十分に確立されておらず、長い範囲の伝播が最適化にメモリを消費するため、Seamと組み合わせられている。
この目的のために、この研究はLGNNをインプリシットGNN(IGNN)の理論で解釈し、ネットワークを無限に繰り返す固定状態点を出力し、一定メモリ消費で無限範囲の伝搬を最適化する。
さらに、LGNNへの以前のコントリビューションは、ネットワークを1回だけ繰り返して、固定点の存在と特異性を暗黙的に保証するためにフォワードパスでランダムにマスクされている履歴状態から始めることで、IGNNのトレーニングにおける重い計算を克服するきっかけとなった。
ignnの改善はネットワークに依存しない: 初めて、それらは複雑なネットワークで拡張され、大規模グラフに適用されます。
2つの合成および6つの実世界のデータセットに対する実験は、長距離依存関係のキャプチャ、ラベル遷移モデリング、正確性、スケーラビリティ、効率性、そして順応性の観点から、我々の方法の利点を検証する。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Robust Graph Neural Networks using Weighted Graph Laplacian [1.8292714902548342]
グラフニューラルネットワーク(GNN)は、入力データにおけるノイズや敵攻撃に対して脆弱である。
重み付きラプラシアンGNN(RWL-GNN)として知られるGNNの強化のための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:36:35Z) - $p$-Laplacian Based Graph Neural Networks [27.747195341003263]
グラフネットワーク(GNN)は、グラフ上の半教師付きノード分類において優れた性能を示す。
我々は、離散正規化フレームワークからメッセージパッシング機構を導出する$p$GNNと呼ばれる新しい$p$LaplacianベースのGNNモデルを提案する。
新たなメッセージパッシング機構は低域通過フィルタと高域通過フィルタを同時に動作させることで,ホモ親和性グラフとヘテロ親和性グラフの両方に対して$p$GNNを有効にすることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T13:16:28Z) - Is Heterophily A Real Nightmare For Graph Neural Networks To Do Node
Classification? [44.71818395535755]
グラフニューラルネットワーク(GNN)は、帰納的バイアス(ホモフィリー仮定)に基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する
グラフに依存しないNNに対するGNNのパフォーマンス上の利点は、一般的には満足できないようである。
ヘテロフィリーが主な原因と見なされ、それに対応するために多くの研究が進められている。
論文 参考訳(メタデータ) (2021-09-12T23:57:05Z) - AdaGNN: A multi-modal latent representation meta-learner for GNNs based
on AdaBoosting [0.38073142980733]
グラフニューラルネットワーク(GNN)は、固有のネットワーク機能の抽出に重点を置いている。
GNNのための強化型メタラーナを提案する。
AdaGNNは、リッチで多様なノード近傍情報を持つアプリケーションに対して非常によく機能する。
論文 参考訳(メタデータ) (2021-08-14T03:07:26Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。