論文の概要: Learning Graph Structure from Convolutional Mixtures
- arxiv url: http://arxiv.org/abs/2205.09575v1
- Date: Thu, 19 May 2022 14:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:50:47.386537
- Title: Learning Graph Structure from Convolutional Mixtures
- Title(参考訳): 畳み込み混合から学習するグラフ構造
- Authors: Max Wasserman, Saurabh Sihag, Gonzalo Mateos, Alejandro Ribeiro
- Abstract要約: 本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
- 参考スコア(独自算出の注目度): 119.45320143101381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning frameworks such as graph neural networks typically rely on a
given, fixed graph to exploit relational inductive biases and thus effectively
learn from network data. However, when said graphs are (partially) unobserved,
noisy, or dynamic, the problem of inferring graph structure from data becomes
relevant. In this paper, we postulate a graph convolutional relationship
between the observed and latent graphs, and formulate the graph learning task
as a network inverse (deconvolution) problem. In lieu of
eigendecomposition-based spectral methods or iterative optimization solutions,
we unroll and truncate proximal gradient iterations to arrive at a
parameterized neural network architecture that we call a Graph Deconvolution
Network (GDN). GDNs can learn a distribution of graphs in a supervised fashion,
perform link prediction or edge-weight regression tasks by adapting the loss
function, and they are inherently inductive. We corroborate GDN's superior
graph recovery performance and its generalization to larger graphs using
synthetic data in supervised settings. Furthermore, we demonstrate the
robustness and representation power of GDNs on real world neuroimaging and
social network datasets.
- Abstract(参考訳): グラフニューラルネットワークのような機械学習フレームワークは、通常、リレーショナルインダクティブバイアスを活用し、ネットワークデータから効果的に学習するために、所定の固定グラフに依存している。
しかし、そのようなグラフが(部分的に)観測できない、騒がしい、あるいは動的である場合、データからグラフ構造を推論する問題は関係する。
本稿では,観測されたグラフと潜在グラフのグラフ畳み込み関係を仮定し,グラフ学習タスクをネットワーク逆(デ畳み込み)問題として定式化する。
固有分解に基づくスペクトル法や反復最適化法の代わりに、近似勾配の反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
gdnsは教師ありの方法でグラフの分布を学習し、損失関数を適用してリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
我々は,GDNの優れたグラフ回復性能と,教師付き設定における合成データを用いた大規模グラフへの一般化を相関づける。
さらに、実世界のニューロイメージングとソーシャルネットワークデータセットにおけるGDNの堅牢性と表現力を示す。
関連論文リスト
- Unitary convolutions for learning on graphs and groups [0.9899763598214121]
我々は、訓練中により安定したより深いネットワークを可能にするユニタリグループ畳み込みについて研究する。
論文の主な焦点はグラフニューラルネットワークであり、ユニタリグラフの畳み込みがオーバー・スムーシングを確実に回避していることを示す。
実験結果から,ベンチマークデータセット上でのユニタリグラフ畳み込みネットワークの競合性能が確認できた。
論文 参考訳(メタデータ) (2024-10-07T21:09:14Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Graph Signal Processing -- Part III: Machine Learning on Graphs, from
Graph Topology to Applications [19.29066508374268]
このモノグラフのパートIIIは、グラフトポロジーを学ぶ方法に対処することから始まる。
特に注目されるのは、観測データの相関および精度行列に基づくグラフトポロジーの定義である。
スパースグラフの学習には、LASSOとして知られる最小絶対縮小と選択演算子を用いる。
論文 参考訳(メタデータ) (2020-01-02T13:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。