論文の概要: Improving Graph Property Prediction with Generalized Readout Functions
- arxiv url: http://arxiv.org/abs/2009.09919v1
- Date: Mon, 21 Sep 2020 14:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:14:32.940446
- Title: Improving Graph Property Prediction with Generalized Readout Functions
- Title(参考訳): 一般化読み出し関数によるグラフ特性予測の改善
- Authors: Eric Alcaide
- Abstract要約: 本稿では,メッセージパッシングニューラルネットワークのリードアウトフェーズで発生する情報損失を軽減するために,新しいグローバルプール層を導入する。
我々は、現在の最高の性能のアーキテクチャを取り入れ、読み出し層をドロップイン代替として利用することで、人気のあるグラフプロパティ予測タスクでテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph property prediction is drawing increasing attention in the recent years
due to the fact that graphs are one of the most general data structures since
they can contain an arbitrary number of nodes and connections between them, and
it is the backbone for many different tasks like classification and regression
on such kind of data (networks, molecules, knowledge bases, ...). We introduce
a novel generalized global pooling layer to mitigate the information loss that
typically occurs at the Readout phase in Message-Passing Neural Networks. This
novel layer is parametrized by two values ($\beta$ and $p$) which can
optionally be learned, and the transformation it performs can revert to several
already popular readout functions (mean, max and sum) under certain settings,
which can be specified. To showcase the superior expressiveness and performance
of this novel technique, we test it in a popular graph property prediction task
by taking the current best-performing architecture and using our readout layer
as a drop-in replacement and we report new state of the art results. The code
to reproduce the experiments can be accessed here:
https://github.com/EricAlcaide/generalized-readout-phase
- Abstract(参考訳): グラフプロパティ予測は、任意の数のノードとそれらの間の接続を含むことができるため、グラフが最も一般的なデータ構造の一つであり、この種のデータ(ネットワーク、分子、知識ベースなど)の分類や回帰といった多くの異なるタスクのバックボーンであるという事実から、近年注目を集めている。
我々は,メッセージパッシングニューラルネットワークの読み出しフェーズで発生する情報損失を軽減するために,新しい一般化グローバルプーリング層を提案する。
この新しいレイヤは2つの値 (\beta$ と $p$) でパラメータ化され、オプションで学習でき、その変換は特定の設定で指定可能な、すでに人気がある読み出し関数 (mean, max, sum) に戻すことができる。
本手法の優れた表現性や性能を示すために,我々は,現在の最高の性能アーキテクチャを取り入れ,読み出し層をドロップイン置換として利用することにより,グラフ特性予測タスクでこれを検証し,新たな成果を報告する。
実験を再現するコードはここでアクセスできる。 https://github.com/ericalcaide/generalized-readout-phase
関連論文リスト
- CliquePH: Higher-Order Information for Graph Neural Networks through Persistent Homology on Clique Graphs [15.044471983688249]
本稿では,グラフ内の高次構造に関する情報を抽出する新しい手法を提案する。
テスト精度は最大で31%向上する。
論文 参考訳(メタデータ) (2024-09-12T16:56:26Z) - Boosting Graph Foundation Model from Structural Perspective [6.387816922598151]
構造の観点からグラフ基盤モデルを強化し,BooGを提案する。
BooGは仮想スーパーノードを構築し、異なるドメインからのグラフデータの構造的特性を統合する。
また,グラフデータに対してより表現力のある表現を学習するコントラスト学習に基づく,新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:22:16Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - SpeqNets: Sparsity-aware Permutation-equivariant Graph Networks [16.14454388348814]
我々は、普遍的、置換同変グラフネットワークのクラスを示す。
それらは表現性とスケーラビリティのきめ細かい制御を提供し、グラフの幅に適応する。
これらのアーキテクチャにより、標準的な高階グラフネットワークに比べて計算時間が大幅に短縮される。
論文 参考訳(メタデータ) (2022-03-25T21:17:09Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。