論文の概要: Equivariant Neural Network for Factor Graphs
- arxiv url: http://arxiv.org/abs/2109.14218v1
- Date: Wed, 29 Sep 2021 06:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 14:45:31.471704
- Title: Equivariant Neural Network for Factor Graphs
- Title(参考訳): 因子グラフのための等変ニューラルネットワーク
- Authors: Fan-Yun Sun, Jonathan Kuck, Hao Tang, Stefano Ermon
- Abstract要約: 因子同変ニューラルネットワーク(FE-NBP)と因子同変グラフニューラルネットワーク(FE-GNN)の2つの推論モデルを提案する。
FE-NBPは小さなデータセットで最先端のパフォーマンスを達成する一方、FE-GNNは大規模なデータセットで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 83.26543234955855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several indices used in a factor graph data structure can be permuted without
changing the underlying probability distribution. An algorithm that performs
inference on a factor graph should ideally be equivariant or invariant to
permutations of global indices of nodes, variable orderings within a factor,
and variable assignment orderings. However, existing neural network-based
inference procedures fail to take advantage of this inductive bias. In this
paper, we precisely characterize these isomorphic properties of factor graphs
and propose two inference models: Factor-Equivariant Neural Belief Propagation
(FE-NBP) and Factor-Equivariant Graph Neural Networks (FE-GNN). FE-NBP is a
neural network that generalizes BP and respects each of the above properties of
factor graphs while FE-GNN is an expressive GNN model that relaxes an
isomorphic property in favor of greater expressivity. Empirically, we
demonstrate on both real-world and synthetic datasets, for both marginal
inference and MAP inference, that FE-NBP and FE-GNN together cover a range of
sample complexity regimes: FE-NBP achieves state-of-the-art performance on
small datasets while FE-GNN achieves state-of-the-art performance on large
datasets.
- Abstract(参考訳): 因子グラフデータ構造で使われるいくつかの指標は、基礎となる確率分布を変更することなく置換することができる。
因子グラフ上で推論を行うアルゴリズムは、理想的には、ノードのグローバルなインデックス、係数内の変数順序、変数割り当て順序の置換に不変または不変であるべきである。
しかし、既存のニューラルネットワークベースの推論手順では、この帰納バイアスを活用できない。
本稿では、これらの因子グラフの同型特性を正確に特徴付け、因子同型ニューラルネットワーク(FE-NBP)と因子同型グラフニューラルネットワーク(FE-GNN)の2つの推論モデルを提案する。
FE-NBP は BP を一般化し、因子グラフの各特性を尊重するニューラルネットワークであり、FE-GNN は表現性を高めるために同型性を緩和する表現的 GNN モデルである。
FE-NBPとFE-GNNはともに、小さなデータセット上で最先端のパフォーマンスを達成し、FE-GNNは大規模データセット上で最先端のパフォーマンスを達成します。
関連論文リスト
- Bundle Neural Networks for message diffusion on graphs [10.018379001231356]
結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
論文 参考訳(メタデータ) (2024-05-24T13:28:48Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Descent Steps of a Relation-Aware Energy Produce Heterogeneous Graph
Neural Networks [25.59092732148598]
不均一グラフニューラルネットワーク(GNN)は、半教師付き学習環境においてノード分類タスクにおいて高い性能を達成する。
本稿では、新しい関係認識エネルギー関数を導出する最適化ステップから層を導出する異種GNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-22T13:48:08Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。