論文の概要: AutoGEL: An Automated Graph Neural Network with Explicit Link
Information
- arxiv url: http://arxiv.org/abs/2112.01064v1
- Date: Thu, 2 Dec 2021 09:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:36:41.837649
- Title: AutoGEL: An Automated Graph Neural Network with Explicit Link
Information
- Title(参考訳): AutoGEL: 明示的なリンク情報を備えたグラフニューラルネットワーク
- Authors: Zhili Wang, Shimin Di, Lei Chen
- Abstract要約: 本稿では,リンク情報を明示的にモデル化する新しいAutoGNNについて述べる。
このようにして、AutoGELはリンク予測タスクを処理でき、ノード分類およびグラフ分類タスクにおけるAutoGNNの性能を向上させることができる。
- 参考スコア(独自算出の注目度): 7.525545233605658
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, Graph Neural Networks (GNNs) have gained popularity in a variety of
real-world scenarios. Despite the great success, the architecture design of
GNNs heavily relies on manual labor. Thus, automated graph neural network
(AutoGNN) has attracted interest and attention from the research community,
which makes significant performance improvements in recent years. However,
existing AutoGNN works mainly adopt an implicit way to model and leverage the
link information in the graphs, which is not well regularized to the link
prediction task on graphs, and limits the performance of AutoGNN for other
graph tasks. In this paper, we present a novel AutoGNN work that explicitly
models the link information, abbreviated to AutoGEL. In such a way, AutoGEL can
handle the link prediction task and improve the performance of AutoGNNs on the
node classification and graph classification task. Specifically, AutoGEL
proposes a novel search space containing various design dimensions at both
intra-layer and inter-layer designs and adopts a more robust differentiable
search algorithm to further improve efficiency and effectiveness. Experimental
results on benchmark data sets demonstrate the superiority of AutoGEL on
several tasks.
- Abstract(参考訳): 最近、グラフニューラルネットワーク(GNN)は様々な現実世界のシナリオで人気を集めている。
大きな成功にもかかわらず、GNNのアーキテクチャ設計は手作業に大きく依存している。
このようにして、自動グラフニューラルネットワーク(AutoGNN)は研究コミュニティから関心を集め、近年は大幅なパフォーマンス向上を遂げている。
しかし、既存のAutoGNNは主にグラフ内のリンク情報をモデル化し活用する暗黙の手法を採用しており、グラフ上のリンク予測タスクに十分に正規化されていないため、他のグラフタスクに対するAutoGNNの性能が制限されている。
本稿では,リンク情報を明示的にモデル化する新しいAutoGNNについて述べる。
このようにして、AutoGELはリンク予測タスクを処理でき、ノード分類およびグラフ分類タスクにおけるAutoGNNの性能を向上させることができる。
特に、AutoGELは層内設計と層間設計の両方において様々な設計次元を含む新しい探索空間を提案し、より堅牢な微分可能な探索アルゴリズムを採用し、効率と効率をさらに向上させる。
ベンチマークデータセットの実験結果は、AutoGELがいくつかのタスクで優れていることを示す。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - AutoSGNN: Automatic Propagation Mechanism Discovery for Spectral Graph Neural Networks [6.755403881158429]
本稿では,スペクトルGNNにおける伝搬機構の自動検出フレームワークであるAutoSGNNを提案する。
本稿では,AutoSGNNの性能と効率の両面において,最先端のスペクトルGNNとグラフニューラルアーキテクチャ探索法より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-17T02:37:48Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Graph Property Prediction on Open Graph Benchmark: A Winning Solution by
Graph Neural Architecture Search [37.89305885538052]
PAS(Pooling Architecture Search)を導入してグラフ分類タスクのためのグラフニューラルネットワークフレームワークを設計する。
本稿では,GNNトポロジ設計手法であるF2GNNに基づいて改良を行い,グラフ特性予測タスクにおけるモデルの性能をさらに向上させる。
NAS法は,複数のタスクに対して高い一般化能力を有し,グラフ特性予測タスクの処理における本手法の利点が証明された。
論文 参考訳(メタデータ) (2022-07-13T08:17:48Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - AutoHEnsGNN: Winning Solution to AutoGraph Challenge for KDD Cup 2020 [29.511523832243046]
人間の介入なしにグラフタスクの効率的で堅牢なモデルを構築するためのフレームワークであるAutoHEnsGNNを提案する。
AutoHEnsGNNはKDDカップ2020のAutoGraph Challengeで優勝した。
論文 参考訳(メタデータ) (2021-11-25T07:23:44Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。