論文の概要: Residual Correlation in Graph Neural Network Regression
- arxiv url: http://arxiv.org/abs/2002.08274v2
- Date: Tue, 16 Jun 2020 22:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:07:53.265283
- Title: Residual Correlation in Graph Neural Network Regression
- Title(参考訳): グラフニューラルネットワーク回帰における残留相関
- Authors: Junteng Jia and Austin R. Benson
- Abstract要約: 我々は条件付き独立仮定が予測力を著しく制限していることを示します。
この問題を解釈可能かつ効率的なフレームワークで解決する。
我々のフレームワークは、競合するベースラインよりもかなり高い精度を実現している。
- 参考スコア(独自算出の注目度): 39.54530450932135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A graph neural network transforms features in each vertex's neighborhood into
a vector representation of the vertex. Afterward, each vertex's representation
is used independently for predicting its label. This standard pipeline
implicitly assumes that vertex labels are conditionally independent given their
neighborhood features. However, this is a strong assumption, and we show that
it is far from true on many real-world graph datasets. Focusing on regression
tasks, we find that this conditional independence assumption severely limits
predictive power. This should not be that surprising, given that traditional
graph-based semi-supervised learning methods such as label propagation work in
the opposite fashion by explicitly modeling the correlation in predicted
outcomes.
Here, we address this problem with an interpretable and efficient framework
that can improve any graph neural network architecture simply by exploiting
correlation structure in the regression residuals. In particular, we model the
joint distribution of residuals on vertices with a parameterized multivariate
Gaussian, and estimate the parameters by maximizing the marginal likelihood of
the observed labels. Our framework achieves substantially higher accuracy than
competing baselines, and the learned parameters can be interpreted as the
strength of correlation among connected vertices. Furthermore, we develop
linear time algorithms for low-variance, unbiased model parameter estimates,
allowing us to scale to large networks. We also provide a basic version of our
method that makes stronger assumptions on correlation structure but is painless
to implement, often leading to great practical performance with minimal
overhead.
- Abstract(参考訳): グラフニューラルネットワークは、各頂点近傍の特徴を頂点のベクトル表現に変換する。
その後、各頂点の表現はラベルの予測に独立して使用される。
この標準パイプラインは、頂点ラベルがその近傍の特徴から条件独立であると暗黙的に仮定する。
しかし、これは強い仮定であり、多くの実世界のグラフデータセットでは真とは程遠いことを示している。
回帰課題に着目して,この条件付き独立性仮定が予測力を著しく制限していることを見いだした。
ラベル伝搬のような従来のグラフに基づく半教師付き学習手法が、予測された結果の相関を明示的にモデル化することによって、逆の方法で機能することを考えると、これは驚くことではない。
本稿では、回帰残差の相関構造を利用するだけで、任意のグラフニューラルネットワークアーキテクチャを改善することができる解釈可能で効率的なフレームワークを用いてこの問題に対処する。
特に,パラメータ化多変量ガウスによる頂点上の残差の連成分布をモデル化し,観測されたラベルの限界確率を最大化してパラメータを推定する。
本フレームワークは, 競合するベースラインよりもかなり高い精度を実現し, 学習パラメータを連結頂点間の相関の強さとして解釈できる。
さらに,低分散モデルパラメータ推定のための線形時間アルゴリズムを開発し,大規模ネットワークにスケールできるようにする。
また,相関構造を強く仮定する手法の基本的なバージョンも提供するが,実装に手間がかからず,オーバーヘッドが最小限に抑えられることも多い。
関連論文リスト
- Graph Structure Learning with Interpretable Bayesian Neural Networks [10.957528713294874]
独立に解釈可能なパラメータを持つ新しい反復を導入する。
これらのパラメータは、エッジ空間のような推定グラフの特性に影響を与える。
これらの反復を解いた後、そのようなグラフの特徴に関する事前知識は、事前分布を形作る。
高速な実行とパラメータ効率により、高忠実度後部近似が可能となる。
論文 参考訳(メタデータ) (2024-06-20T23:27:41Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - An Interpretable Graph Generative Model with Heterophily [38.59200985962146]
ヘテロフィリーを捉えるのに十分な表現性を持つ最初のエッジ非依存グラフ生成モデルを提案する。
我々の実験は、様々な重要なアプリケーションタスクに対して、我々のモデルの有効性を実証する。
論文 参考訳(メタデータ) (2021-11-04T17:34:39Z) - Convergent Boosted Smoothing for Modeling Graph Data with Tabular Node
Features [46.052312251801]
本稿では,グラフ伝播ステップでブースティングを反復するフレームワークを提案する。
我々のアプローチは、原則化されたメタロス関数に固定されている。
様々な非イドグラフデータセットに対して,本手法は同等あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2021-10-26T04:53:12Z) - T-LoHo: A Bayesian Regularization Model for Structured Sparsity and
Smoothness on Graphs [0.0]
グラフ構造化データでは、構造化されたスパーシリティと滑らかさが団結する傾向にある。
グラフィカルな関係を持つ高次元パラメータに先立って提案する。
構造された空間と滑らかさを同時に検出するために使用します。
論文 参考訳(メタデータ) (2021-07-06T10:10:03Z) - Graph Belief Propagation Networks [34.137798598227874]
グラフニューラルネットワークと集合分類の利点を組み合わせたモデルを提案する。
我々のモデルでは、各ノード上のポテンシャルはそのノードの特徴にのみ依存し、エッジポテンシャルは結合行列を介して学習される。
我々のアプローチは、解釈可能なメッセージパスグラフニューラルネットワークか、より高いキャパシティと近代化されたトレーニングを備えた集団分類手法とみなすことができる。
論文 参考訳(メタデータ) (2021-06-06T05:24:06Z) - Hyperbolic Graph Embedding with Enhanced Semi-Implicit Variational
Inference [48.63194907060615]
半単純グラフ変分自動エンコーダを用いて,低次元グラフ潜在表現における高次統計量を取得する。
我々は、階層構造を示すグラフを効率的に表現するために、ポインケア埋め込みを通して潜在空間に双曲幾何学を組み込む。
論文 参考訳(メタデータ) (2020-10-31T05:48:34Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。