論文の概要: On the Unreasonable Effectiveness of Feature propagation in Learning on
Graphs with Missing Node Features
- arxiv url: http://arxiv.org/abs/2111.12128v1
- Date: Tue, 23 Nov 2021 19:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-26 02:37:46.355006
- Title: On the Unreasonable Effectiveness of Feature propagation in Learning on
Graphs with Missing Node Features
- Title(参考訳): ノード特徴が欠落したグラフ上での学習における特徴伝播の不合理な効果について
- Authors: Emanuele Rossi, Henry Kenlay, Maria I. Gorinova, Benjamin Paul
Chamberlain, Xiaowen Dong, Michael Bronstein
- Abstract要約: 本稿では,グラフ機械学習アプリケーションにおいて欠落する機能を扱うための一般的なアプローチを提案する。
提案手法は,7つの共通ノード分類ベンチマークにおいて,従来の手法よりも優れていることを示す。
1つのGPU上で$sim$2.5Mノードと$sim$123Mエッジを持つグラフ上で実行するのに10秒しかかからない。
- 参考スコア(独自算出の注目度): 7.421573539569853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Graph Neural Networks (GNNs) have recently become the de facto standard
for modeling relational data, they impose a strong assumption on the
availability of the node or edge features of the graph. In many real-world
applications, however, features are only partially available; for example, in
social networks, age and gender are available only for a small subset of users.
We present a general approach for handling missing features in graph machine
learning applications that is based on minimization of the Dirichlet energy and
leads to a diffusion-type differential equation on the graph. The
discretization of this equation produces a simple, fast and scalable algorithm
which we call Feature Propagation. We experimentally show that the proposed
approach outperforms previous methods on seven common node-classification
benchmarks and can withstand surprisingly high rates of missing features: on
average we observe only around 4% relative accuracy drop when 99% of the
features are missing. Moreover, it takes only 10 seconds to run on a graph with
$\sim$2.5M nodes and $\sim$123M edges on a single GPU.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、最近リレーショナルデータをモデリングするデファクトスタンダードになっていますが、グラフのノードやエッジの特徴が利用可能であることを強く前提にしています。
しかし、多くの現実世界のアプリケーションでは、機能は部分的にしか利用できない。例えば、ソーシャルネットワークでは、年齢と性別は少数のユーザーしか利用できない。
本稿では,ディリクレエネルギーの最小化を基本とし,グラフ上の拡散型微分方程式を導出するグラフ機械学習アプリケーションにおいて,欠けている特徴を扱う一般的なアプローチを提案する。
この方程式の離散化は、我々がFeature Propagationと呼ぶ単純で高速でスケーラブルなアルゴリズムを生成する。
提案手法は,7つの共通ノード分類ベンチマークにおいて従来の手法よりも優れており,平均して99%の機能が欠落している場合に,4%程度の相対的精度低下しか観測できない。
さらに、1つのGPU上で$\sim$2.5Mノードと$\sim$123Mエッジを持つグラフ上で実行するのに10秒しかかからない。
関連論文リスト
- Online Network Inference from Graph-Stationary Signals with Hidden Nodes [31.927912288598467]
本稿では,隠れノードの存在を考慮したオンライングラフ推定手法を提案する。
次に、ストリーミング不完全グラフ信号からのグラフ学習のための凸最適化問題を定式化する。
論文 参考訳(メタデータ) (2024-09-13T12:09:09Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - SGAT: Simplicial Graph Attention Network [38.7842803074593]
不均一グラフは複数のノード型とエッジ型を持ち、同質グラフよりも意味的にリッチである。
不均一グラフに対する多くのグラフニューラルネットワークアプローチは、ノード間のマルチホップ相互作用をキャプチャするためにメタパスを使用する。
SGAT(Simplicial Graph Attention Network)は、このような高次相互作用を表現するための単純な複雑なアプローチである。
論文 参考訳(メタデータ) (2022-07-24T15:20:41Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。