論文の概要: Neural Priority Queues for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2307.09660v1
- Date: Tue, 18 Jul 2023 22:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 16:06:48.817490
- Title: Neural Priority Queues for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのニューラルプライオリティキュー
- Authors: Rishabh Jain, Petar Veli\v{c}kovi\'c, Pietro Li\`o
- Abstract要約: 本稿では,GNNに対して,アルゴリズムの優先度待ち行列に類似したニューラル優先度待ち行列を提案する。
ニューラルPQはデシダラタを呈し,アルゴリズム的推論で使用する理由を示す。
- 参考スコア(独自算出の注目度): 1.998137588894948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown considerable success in neural
algorithmic reasoning. Many traditional algorithms make use of an explicit
memory in the form of a data structure. However, there has been limited
exploration on augmenting GNNs with external memory. In this paper, we present
Neural Priority Queues, a differentiable analogue to algorithmic priority
queues, for GNNs. We propose and motivate a desiderata for memory modules, and
show that Neural PQs exhibit the desiderata, and reason about their use with
algorithmic reasoning. This is further demonstrated by empirical results on the
CLRS-30 dataset. Furthermore, we find the Neural PQs useful in capturing
long-range interactions, as empirically shown on a dataset from the Long-Range
Graph Benchmark.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ニューラルネットワーク推論においてかなりの成功を収めている。
多くの伝統的なアルゴリズムは、データ構造の形で明示的なメモリを使用する。
しかし、外部メモリによるgnnの拡張に関する調査は限られている。
本稿では,gnnのためのアルゴリズム優先待ち行列の微分可能な類似品であるneural priority queuesを提案する。
本稿では,メモリモジュールのデシデラタの提案と動機付けを行い,ニューラルpqがデシデラタを示し,アルゴリズム推論による使用の理由を示す。
これはclrs-30データセットの実証的な結果によってさらに示される。
さらに、Long-Range Graph Benchmarkのデータセットに実証的に示されているように、ニューラルPQは長距離相互作用のキャプチャに有用である。
関連論文リスト
- Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Neural Architecture Search in Graph Neural Networks [1.2881413375147996]
本稿では,グラフニューラルネットワーク(GNN)の最適化のための2つのNAS手法を比較する。
その結果、2つの探索空間上の7つのデータセットについて検討し、どちらの手法もランダムな探索に類似した精度が得られることを示した。
論文 参考訳(メタデータ) (2020-07-31T21:04:24Z) - Higher-Order Explanations of Graph Neural Networks via Relevant Walks [3.1510406584101776]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを予測するための一般的なアプローチである。
本稿では,GNNを高次展開を用いて自然に説明できることを示す。
本稿では,テキストデータの感情分析,量子化学における構造・不適切な関係,画像分類に関する実践的な知見を抽出する。
論文 参考訳(メタデータ) (2020-06-05T17:59:14Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Understanding Graph Isomorphism Network for rs-fMRI Functional
Connectivity Analysis [49.05541693243502]
グラフ同型ネットワーク(GIN)を用いてfMRIデータを解析するフレームワークを開発する。
本稿では,GINがグラフ空間における畳み込みニューラルネットワーク(CNN)の二重表現であることを示す。
我々は,提案したGINをワンホット符号化で調整するGNNに対して,CNNベースのサリエンシマップ技術を利用する。
論文 参考訳(メタデータ) (2020-01-10T23:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。