論文の概要: Invertible Neural Networks for Graph Prediction
- arxiv url: http://arxiv.org/abs/2206.01163v1
- Date: Thu, 2 Jun 2022 17:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:58:09.856503
- Title: Invertible Neural Networks for Graph Prediction
- Title(参考訳): グラフ予測のための可逆ニューラルネットワーク
- Authors: Chen Xu, Xiuyuan Cheng, Yao Xie
- Abstract要約: 本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
- 参考スコア(独自算出の注目度): 22.140275054568985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we address conditional generation using deep invertible neural
networks. This is a type of problem where one aims to infer the most probable
inputs $X$ given outcomes $Y$. We call our method \textit{invertible graph
neural network} (iGNN) due to the primary focus on generating node features on
graph data. A notable feature of our proposed methods is that during network
training, we revise the typically-used loss objective in normalizing flow and
consider Wasserstein-2 regularization to facilitate the training process.
Algorithmic-wise, we adopt an end-to-end training approach since our objective
is to address prediction and generation in the forward and backward processes
at once through a single model. Theoretically, we characterize the conditions
for identifiability of a true mapping, the existence and invertibility of the
mapping, and the expressiveness of iGNN in learning the mapping.
Experimentally, we verify the performance of iGNN on both simulated and
real-data datasets. We demonstrate through extensive numerical experiments that
iGNN shows clear improvement over competing conditional generation benchmarks
on high-dimensional and/or non-convex data.
- Abstract(参考訳): 本研究では,ディープインバータブルニューラルネットワークを用いた条件付き生成手法を提案する。
これは、最も可能性の高い入力を、与えられた結果に対して$x$で推測することを目的とした問題である。
我々は,グラフデータ上のノード特徴の生成に主眼を置いているため,この手法をiGNN (textit{invertible graph neural network) と呼ぶ。
提案手法の特筆すべき点は, ネットワークトレーニング中, フローの正規化における典型的な損失目標を再検討し, トレーニングプロセスを容易にするために Wasserstein-2 正規化を検討することである。
アルゴリズム的に、私たちはエンドツーエンドのトレーニングアプローチを採用しています。私たちの目標は、1つのモデルを通して、前方および後方のプロセスにおける予測と生成に対処することです。
理論的には、真の写像の識別可能性、写像の存在と可逆性、および写像の学習におけるiGNNの表現性について特徴づける。
実験により、シミュレーションと実データの両方でiGNNの性能を検証する。
我々は、iGNNが高次元および/または非凸データ上で競合する条件生成ベンチマークよりも明確な改善を示すという広範な数値実験を通して示す。
関連論文リスト
- Reducing Oversmoothing through Informed Weight Initialization in Graph Neural Networks [16.745718346575202]
本稿では,ノードやグラフの分類タスクにおいて,過度なスムース化を抑える新しいスキーム(G-Init)を提案する。
以上の結果から,新しい手法(G-Init)は深部GNNの過剰なスムース化を低減し,その有効利用を促進することが示唆された。
論文 参考訳(メタデータ) (2024-10-31T11:21:20Z) - On the Initialization of Graph Neural Networks [10.153841274798829]
グラフニューラルネットワーク層間の前方・後方伝播のばらつきを解析する。
GNN最適化(Virgo)における可変不安定化のための新しい手法を提案する。
15のデータセットで包括的な実験を行い、Virgoが優れたモデルパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-05T09:55:49Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。