論文の概要: Designing the Topology of Graph Neural Networks: A Novel Feature Fusion
Perspective
- arxiv url: http://arxiv.org/abs/2112.14531v1
- Date: Wed, 29 Dec 2021 13:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 18:41:31.583414
- Title: Designing the Topology of Graph Neural Networks: A Novel Feature Fusion
Perspective
- Title(参考訳): グラフニューラルネットワークのトポロジ設計:新しい特徴融合の視点から
- Authors: Lanning Wei, Huan Zhao, Zhiqiang He
- Abstract要約: 我々は,F$2$GNNと呼ばれる新しい機能融合の観点から,GNNのトポロジを設計することを学ぶ。
本研究では,選択操作と融合操作を含む統合フレームワーク上でのニューラルネットワーク探索手法を提案する。
8つの実世界のデータセットのパフォーマンス向上は、F$2$GNNの有効性を示している。
- 参考スコア(独自算出の注目度): 12.363386808994079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Graph Neural Networks (GNNs) have shown superior performance
on diverse real-world applications. To improve the model capacity, besides
designing aggregation operations, GNN topology design is also very important.
In general, there are two mainstream GNN topology design manners. The first one
is to stack aggregation operations to obtain the higher-level features but
easily got performance drop as the network goes deeper. Secondly, the multiple
aggregation operations are utilized in each layer which provides adequate and
independent feature extraction stage on local neighbors while are costly to
obtain the higher-level information. To enjoy the benefits while alleviating
the corresponding deficiencies of these two manners, we learn to design the
topology of GNNs in a novel feature fusion perspective which is dubbed
F$^2$GNN. To be specific, we provide a feature fusion perspective in designing
GNN topology and propose a novel framework to unify the existing topology
designs with feature selection and fusion strategies. Then we develop a neural
architecture search method on top of the unified framework which contains a set
of selection and fusion operations in the search space and an improved
differentiable search algorithm. The performance gains on eight real-world
datasets demonstrate the effectiveness of F$^2$GNN. We further conduct
experiments to show that F$^2$GNN can improve the model capacity while
alleviating the deficiencies of existing GNN topology design manners,
especially alleviating the over-smoothing problem, by utilizing different
levels of features adaptively.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)は様々な現実世界のアプリケーションにおいて優れた性能を示している。
GNNトポロジ設計は,アグリゲーション操作の設計に加えて,モデルのキャパシティ向上のためにも重要である。
一般に、2つの主要なGNNトポロジー設計方法がある。
まず、高度な機能を得るために集約処理をスタックするが、ネットワークが深くなると簡単にパフォーマンスが低下する。
次に、複数のアグリゲーション操作を各レイヤで活用し、各レイヤに適切な独立した特徴抽出ステージを提供しつつ、高レベル情報を得るコストを高くする。
これらの2つの方法の欠点を緩和しつつ、その利点を享受するために、我々はF$^2$GNNと呼ばれる新しい特徴融合の観点からGNNのトポロジを設計することを学ぶ。
具体的には,GNNトポロジ設計における機能融合の視点を提供し,既存のトポロジ設計を特徴選択と融合戦略で統一する新しいフレームワークを提案する。
次に,検索空間における一連の選択・融合操作と改良された微分可能探索アルゴリズムを含む統一フレームワーク上に,ニューラルネットワーク探索法を開発した。
8つの実世界のデータセットのパフォーマンス向上は、F$^2$GNNの有効性を示す。
さらに、F$^2$GNNが、既存のGNNトポロジ設計手法の欠陥を軽減しつつ、モデルのキャパシティを向上できることを示す実験を行い、特に過度なスムーシング問題を緩和し、異なるレベルの特徴を適応的に活用することを示した。
関連論文リスト
- AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Space4HGNN: A Novel, Modularized and Reproducible Platform to Evaluate
Heterogeneous Graph Neural Network [51.07168862821267]
本稿では, ヘテロジニアス・リニア変換, ヘテロジニアス・グラフ変換, ヘテロジニアス・メッセージパッシング・レイヤの3つのコンポーネントからなる, 殆どのHGNNをカバーする統一的なフレームワークを提案する。
次に、モジュール化されたコンポーネント、再現可能な実装、およびHGNNの標準化された評価を提供する統一フレームワークに基づいて、HGNNの設計空間を定義することで、Space4HGNNを構築する。
論文 参考訳(メタデータ) (2022-02-18T13:11:35Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Search For Deep Graph Neural Networks [4.3002928862077825]
現在のGNN指向NAS法は、浅い単純なアーキテクチャを持つ異なる層集約コンポーネントの探索に重点を置いている。
本稿では,新しい2段階探索空間を持つGNN生成パイプラインを提案する。
実世界のデータセットの実験では、生成したGNNモデルは、既存の手動設計やNASベースのモデルよりも優れています。
論文 参考訳(メタデータ) (2021-09-21T09:24:59Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。