論文の概要: AutoHEnsGNN: Winning Solution to AutoGraph Challenge for KDD Cup 2020
- arxiv url: http://arxiv.org/abs/2111.12952v1
- Date: Thu, 25 Nov 2021 07:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 14:50:53.489489
- Title: AutoHEnsGNN: Winning Solution to AutoGraph Challenge for KDD Cup 2020
- Title(参考訳): AutoHEnsGNN: KDDカップ2020でAutoGraphチャレンジに勝利
- Authors: Jin Xu, Mingjian Chen, Jianqiang Huang, Xingyuan Tang, Ke Hu, Jian Li,
Jia Cheng, Jun Lei
- Abstract要約: 人間の介入なしにグラフタスクの効率的で堅牢なモデルを構築するためのフレームワークであるAutoHEnsGNNを提案する。
AutoHEnsGNNはKDDカップ2020のAutoGraph Challengeで優勝した。
- 参考スコア(独自算出の注目度): 29.511523832243046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become increasingly popular and achieved
impressive results in many graph-based applications. However, extensive manual
work and domain knowledge are required to design effective architectures, and
the results of GNN models have high variance with different training setups,
which limits the application of existing GNN models. In this paper, we present
AutoHEnsGNN, a framework to build effective and robust models for graph tasks
without any human intervention. AutoHEnsGNN won first place in the AutoGraph
Challenge for KDD Cup 2020, and achieved the best rank score of five real-life
datasets in the final phase. Given a task, AutoHEnsGNN first applies a fast
proxy evaluation to automatically select a pool of promising GNN models. Then
it builds a hierarchical ensemble framework: 1) We propose graph self-ensemble
(GSE), which can reduce the variance of weight initialization and efficiently
exploit the information of local and global neighborhoods; 2) Based on GSE, a
weighted ensemble of different types of GNN models is used to effectively learn
more discriminative node representations. To efficiently search the
architectures and ensemble weights, we propose AutoHEnsGNN$_{\text{Gradient}}$,
which treats the architectures and ensemble weights as architecture parameters
and uses gradient-based architecture search to obtain optimal configurations,
and AutoHEnsGNN$_{\text{Adaptive}}$, which can adaptively adjust the ensemble
weight based on the model accuracy. Extensive experiments on node
classification, graph classification, edge prediction and KDD Cup challenge
demonstrate the effectiveness and generality of AutoHEnsGNN
- Abstract(参考訳): グラフニューラルネットワーク(gnns)はますます普及し、多くのグラフベースのアプリケーションで印象的な成果を上げている。
しかし、効果的なアーキテクチャの設計には広範な手作業とドメイン知識が必要であり、GNNモデルの結果は、既存のGNNモデルの適用を制限する異なるトレーニング設定と高いばらつきを持つ。
本稿では,人間の介入なしにグラフタスクの効率的かつ堅牢なモデルを構築するためのフレームワークであるAutoHEnsGNNを提案する。
AutoHEnsGNNはKDDカップ2020のAutoGraph Challengeで優勝し、最終フェーズで5つの実生活データセットの最高順位を獲得した。
タスクが与えられた後、AutoHEnsGNNはまず高速なプロキシ評価を適用して、有望なGNNモデルのプールを自動的に選択する。
そして、階層的なアンサンブルフレームワークを構築します。
1) 重量初期化のばらつきを低減し, 地域・グローバル地域の情報を効率的に活用するグラフ自己組織化(GSE)を提案する。
2) GSEに基づいて,GNNモデルの重み付けアンサンブルを用いて,より識別的なノード表現を効果的に学習する。
アーキテクチャとアンサンブルの重みを効率的に探索するために、アーキテクチャとアンサンブルの重みをアーキテクチャパラメータとして扱うautohensgnn$_{\text{gradient}}$を提案し、最適な構成を得るために勾配ベースのアーキテクチャ探索と、モデル精度に基づいてアンサンブルの重みを適応的に調整できるautohensgnn$_{\text{adaptive}}$を提案する。
ノード分類、グラフ分類、エッジ予測、kdd cupチャレンジに関する広範な実験がautohensgnnの有効性と汎用性を示している
関連論文リスト
- Diffusing to the Top: Boost Graph Neural Networks with Minimal Hyperparameter Tuning [33.948899558876604]
グラフ条件付き潜在拡散フレームワーク(GNN-Diff)を導入し,高性能なGNNを生成する。
提案手法は,小,大,長距離グラフ上のノード分類とリンク予測という4つのグラフタスクを対象とした166の実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-08T05:27:34Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - AutoGEL: An Automated Graph Neural Network with Explicit Link
Information [7.525545233605658]
本稿では,リンク情報を明示的にモデル化する新しいAutoGNNについて述べる。
このようにして、AutoGELはリンク予測タスクを処理でき、ノード分類およびグラフ分類タスクにおけるAutoGNNの性能を向上させることができる。
論文 参考訳(メタデータ) (2021-12-02T09:09:18Z) - Network In Graph Neural Network [9.951298152023691]
本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
論文 参考訳(メタデータ) (2021-11-23T03:58:56Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。