論文の概要: AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing
- arxiv url: http://arxiv.org/abs/2304.07014v1
- Date: Fri, 14 Apr 2023 09:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 14:04:26.247606
- Title: AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing
- Title(参考訳): AGNN: オーバースムーシングを緩和するグラフ正規化ニューラルネットワーク
- Authors: Zhaoliang Chen, Zhihao Wu, Zhenghong Lin, Shiping Wang, Claudia Plant,
Wenzhong Guo
- Abstract要約: グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
- 参考スコア(独自算出の注目度): 29.618952407794776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Network (GCN) with the powerful capacity to explore
graph-structural data has gained noticeable success in recent years.
Nonetheless, most of the existing GCN-based models suffer from the notorious
over-smoothing issue, owing to which shallow networks are extensively adopted.
This may be problematic for complex graph datasets because a deeper GCN should
be beneficial to propagating information across remote neighbors. Recent works
have devoted effort to addressing over-smoothing problems, including
establishing residual connection structure or fusing predictions from
multi-layer models. Because of the indistinguishable embeddings from deep
layers, it is reasonable to generate more reliable predictions before
conducting the combination of outputs from various layers. In light of this, we
propose an Alternating Graph-regularized Neural Network (AGNN) composed of
Graph Convolutional Layer (GCL) and Graph Embedding Layer (GEL). GEL is derived
from the graph-regularized optimization containing Laplacian embedding term,
which can alleviate the over-smoothing problem by periodic projection from the
low-order feature space onto the high-order space. With more distinguishable
features of distinct layers, an improved Adaboost strategy is utilized to
aggregate outputs from each layer, which explores integrated embeddings of
multi-hop neighbors. The proposed model is evaluated via a large number of
experiments including performance comparison with some multi-layer or
multi-order graph neural networks, which reveals the superior performance
improvement of AGNN compared with state-of-the-art models.
- Abstract(参考訳): グラフ構造データを探索する強力な能力を持つグラフ畳み込みネットワーク(GCN)は近年顕著な成功を収めている。
それでも、既存のGCNベースのモデルのほとんどは、浅いネットワークが広く採用されているため、過度にスムースな問題に悩まされている。
複雑なグラフデータセットには問題がありますが、より深いGCNは、リモートの隣人間で情報を伝達する上で有益であるべきです。
最近の研究は、残差接続構造の構築や多層モデルからの予測の融合など、余計な問題に対処することに尽力している。
深い層と区別できない埋め込みのため、様々な層からの出力の組み合わせを実行する前に、より信頼できる予測を生成するのが妥当である。
そこで我々は,グラフ畳み込み層 (GCL) とグラフ埋め込み層 (GEL) からなる交換グラフ正規化ニューラルネットワーク (AGNN) を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれるもので、低階特徴空間から高階空間への周期的射影により過度に滑らかな問題を緩和することができる。
異なるレイヤのより区別可能な特徴により、改善されたAdaboost戦略を使用して各レイヤからの出力を集約し、マルチホップ隣人の統合埋め込みを探索する。
提案手法は,多層グラフや多階グラフニューラルネットワークの性能比較を含む多数の実験により評価され,最先端モデルと比較してagnnの性能改善が示された。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Tackling Oversmoothing in GNN via Graph Sparsification: A Truss-based Approach [1.4854797901022863]
本稿では,グラフの高密度領域からエッジを抽出する新鮮で柔軟なトラスグラフスペーシフィケーションモデルを提案する。
次に、GIN、SAGPool、GMT、DiffPool、MinCutPool、HGP-SL、DMonPool、AdamGNNといった最先端のベースラインGNNとプールモデルでスパーシフィケーションモデルを利用する。
論文 参考訳(メタデータ) (2024-07-16T17:21:36Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - Addressing Heterophily in Node Classification with Graph Echo State
Networks [11.52174067809364]
ノード分類のためのグラフエコー状態ネットワーク(GESN)を用いた異種グラフの課題に対処する。
GESNはグラフのための貯水池計算モデルであり、ノードの埋め込みは訓練されていないメッセージパッシング関数によって計算される。
実験の結果, 貯水池モデルでは, ほぼ完全に訓練された深層モデルに対して, より優れた精度あるいは同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-14T19:42:31Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - NDGGNET-A Node Independent Gate based Graph Neural Networks [6.155450481110693]
疎結合なノードでは、単一のGNN層を通して十分な情報を得るのは難しい。
この論文では、通常のGNNモデルでより多くのレイヤに対応可能な新しいフレームワークを定義する。
実験結果から,提案モデルがモデル深度を効果的に向上し,複数のデータセットで良好に動作できることが示唆された。
論文 参考訳(メタデータ) (2022-05-11T08:51:04Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。