論文の概要: Graph Auto-Encoder Via Neighborhood Wasserstein Reconstruction
- arxiv url: http://arxiv.org/abs/2202.09025v1
- Date: Fri, 18 Feb 2022 05:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:14:58.733308
- Title: Graph Auto-Encoder Via Neighborhood Wasserstein Reconstruction
- Title(参考訳): 近傍wasersteinによるグラフ自動エンコーダ
- Authors: Mingyue Tang, Carl Yang, Pan Li
- Abstract要約: 隣り合うワッサーシュタイン再構成(NWR)を通して、近接と構造の両方に関する近隣情報全体を再構築する新しいグラフデコーダを提案する。
NWRはそのノード次数と近傍の特徴分布を共同で予測し、分布予測はワッサーシュタイン距離に基づいて最適輸送損失を採用する。
合成および実世界のネットワークデータセットを用いた実験では、NWRはグラフマイニングタスクにおいてはるかに有利であり、近接指向のグラフマイニングでは競合性能が達成されている。
- 参考スコア(独自算出の注目度): 19.684222592220614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have drawn significant research attention
recently, mostly under the setting of semi-supervised learning. When
task-agnostic representations are preferred or supervision is simply
unavailable, the auto-encoder framework comes in handy with a natural graph
reconstruction objective for unsupervised GNN training. However, existing graph
auto-encoders are designed to reconstruct the direct links, so GNNs trained in
this way are only optimized towards proximity-oriented graph mining tasks, and
will fall short when the topological structures matter. In this work, we
revisit the graph encoding process of GNNs which essentially learns to encode
the neighborhood information of each node into an embedding vector, and propose
a novel graph decoder to reconstruct the entire neighborhood information
regarding both proximity and structure via Neighborhood Wasserstein
Reconstruction (NWR). Specifically, from the GNN embedding of each node, NWR
jointly predicts its node degree and neighbor feature distribution, where the
distribution prediction adopts an optimal-transport loss based on the
Wasserstein distance. Extensive experiments on both synthetic and real-world
network datasets show that the unsupervised node representations learned with
NWR have much more advantageous in structure-oriented graph mining tasks, while
also achieving competitive performance in proximity-oriented ones.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、主に半教師付き学習の環境下で、近年、大きな研究の注目を集めている。
タスク非依存の表現が好まれたり、単に監視ができない場合、自動エンコーダフレームワークは、教師なしGNNトレーニングの自然なグラフ再構成目的に役立ちます。
しかし、既存のグラフ自動エンコーダは直接リンクを再構築するために設計されており、この方法で訓練されたGNNは、近距離指向のグラフマイニングタスクにのみ最適化されており、トポロジ的構造が重要であれば不足する。
本研究では,各ノードの近傍情報を埋め込みベクトルにエンコードすることを本質的に学習するGNNのグラフ符号化プロセスを再検討し,近隣ワッサースタイン再構成(NWR)を通して近傍情報と構造の両方に関する近傍情報を再構築する新しいグラフデコーダを提案する。
具体的には、各ノードのGNN埋め込みから、NWRはそのノード次数と隣り合う特徴分布を共同で予測し、分布予測はワッサーシュタイン距離に基づいて最適輸送損失を採用する。
合成および実世界のネットワークデータセットの広範な実験により、NWRで学習した教師なしノード表現は、構造指向のグラフマイニングタスクにおいてはるかに有利であると同時に、近接指向のノードでの競合性能も達成している。
関連論文リスト
- Commute Graph Neural Networks [7.143879014059894]
我々は,ノードワイズ通勤時間をメッセージパッシング方式にシームレスに統合するアプローチであるCommutute Graph Neural Networks (CGNN)を導入する。
CGNNは、新しく定式化されたラプラシアングラフを用いて通勤時間を計算するための効率的な方法である。
これによりCGNNは、ダイグラフの相互非対称関係を直接キャプチャできる。
論文 参考訳(メタデータ) (2024-06-30T10:53:40Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。