論文の概要: Exploiting the Structure of Two Graphs with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2411.05119v1
- Date: Thu, 07 Nov 2024 19:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:53:43.071996
- Title: Exploiting the Structure of Two Graphs with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによる2つのグラフの構造の爆発
- Authors: Victor M. Tenorio, Antonio G. Marques,
- Abstract要約: 本稿では,異なるグラフ上に定義された2組の信号が存在するタスクを処理するための,グラフに基づく新しいディープラーニングアーキテクチャを提案する。
複数のグラフからの情報を活用することで、提案されたアーキテクチャは、データ内のさまざまなエンティティ間のより複雑な関係をキャプチャすることができる。
- 参考スコア(独自算出の注目度): 8.354731976915588
- License:
- Abstract: Graph neural networks (GNNs) have emerged as a promising solution to deal with unstructured data, outperforming traditional deep learning architectures. However, most of the current GNN models are designed to work with a single graph, which limits their applicability in many real-world scenarios where multiple graphs may be involved. To address this limitation, we propose a novel graph-based deep learning architecture to handle tasks where two sets of signals exist, each defined on a different graph. First we consider the setting where the input is represented as a signal on top of one graph (input graph) and the output is a graph signal defined over a different graph (output graph). For this setup, we propose a three-block architecture where we first process the input data using a GNN that operates over the input graph, then apply a transformation function that operates in a latent space and maps the signals from the input to the output graph, and finally implement a second GNN that operates over the output graph. Our goal is not to propose a single specific definition for each of the three blocks, but rather to provide a flexible approach to solve tasks involving data defined on two graphs. The second part of the paper addresses a self-supervised setup, where the focus is not on the output space but on the underlying latent space and, inspired by Canonical Correlation Analysis, we seek informative representations of the data that can be leveraged to solve a downstream task. By leveraging information from multiple graphs, the proposed architecture can capture more intricate relationships between different entities in the data. We test this in several experimental setups using synthetic and real world datasets, and observe that the proposed architecture works better than traditional deep learning architectures, showcasing the importance of leveraging the information of the two graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、非構造化データを扱うための有望なソリューションとして登場し、従来のディープラーニングアーキテクチャよりも優れています。
しかし、現在のGNNモデルのほとんどは単一のグラフで動作するように設計されており、複数のグラフが関与する多くの実世界のシナリオにおいて、それらの適用性が制限されている。
この制限に対処するために,異なるグラフ上に定義された2組の信号が存在するタスクを処理するための,グラフに基づく新しいディープラーニングアーキテクチャを提案する。
まず、入力が1つのグラフ(インプットグラフ)の上の信号として表現され、出力は別のグラフ(アウトプットグラフ)上で定義されたグラフ信号である。
本稿では,まず入力グラフ上で動作するGNNを用いて入力データを処理し,次に潜時空間で動作する変換関数を適用し,入力から出力グラフに信号をマップし,最後に出力グラフ上で動作させる第2のGNNを実装する3ブロックアーキテクチャを提案する。
私たちのゴールは、3つのブロックそれぞれに1つの特定の定義を提案するのではなく、2つのグラフで定義されたデータを含むタスクを解決するための柔軟なアプローチを提供することです。
論文の第2部では、出力空間ではなく、下層の潜在空間に焦点をあてる自己教師型セットアップについて論じ、カノニカル相関分析に触発されて、下流の課題を解決するために活用できるデータの情報表現を求める。
複数のグラフからの情報を活用することで、提案されたアーキテクチャは、データ内のさまざまなエンティティ間のより複雑な関係をキャプチャすることができる。
合成および実世界のデータセットを用いていくつかの実験的な設定でこれを検証し、提案したアーキテクチャが従来のディープラーニングアーキテクチャよりも優れていることを観察し、2つのグラフの情報を活用することの重要性を示す。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - Range-aware Positional Encoding via High-order Pretraining: Theory and Practice [14.521929085104441]
大量のグラフデータに対する教師なし事前トレーニングは、ラベル付きデータが制限された実世界のアプリケーションでは不可欠である。
本稿では,多解像度構造情報をモデル化することに焦点を当てたグラフの事前学習戦略を提案する。
このアプローチはグラフ構造にのみ依存するが、ドメインに依存しず、さまざまなドメインのデータセットに適応可能である。
論文 参考訳(メタデータ) (2024-09-27T19:53:10Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - HUGE: Huge Unsupervised Graph Embeddings with TPUs [6.108914274067702]
グラフ埋め込み(Graph Embedding)は、グラフ内のノードを連続的に表現するプロセスである。
高帯域幅メモリを利用した高性能グラフ埋め込みアーキテクチャを提案する。
実・合成大規模データセット上での埋め込み空間の品質を検証する。
論文 参考訳(メタデータ) (2023-07-26T20:29:15Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Learning the Network of Graphs for Graph Neural Networks [13.607220832670434]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う多くのシナリオで大きな成功を収めている。
グラフは未知であり、ノードはノイズの多い特徴を持ち、グラフはノイズの多い接続を含んでいる。
これらの問題を解決するために,GL-GNNと呼ばれる新しいグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-08T04:08:51Z) - Graph Property Prediction on Open Graph Benchmark: A Winning Solution by
Graph Neural Architecture Search [37.89305885538052]
PAS(Pooling Architecture Search)を導入してグラフ分類タスクのためのグラフニューラルネットワークフレームワークを設計する。
本稿では,GNNトポロジ設計手法であるF2GNNに基づいて改良を行い,グラフ特性予測タスクにおけるモデルの性能をさらに向上させる。
NAS法は,複数のタスクに対して高い一般化能力を有し,グラフ特性予測タスクの処理における本手法の利点が証明された。
論文 参考訳(メタデータ) (2022-07-13T08:17:48Z) - Template based Graph Neural Network with Optimal Transport Distances [11.56532171513328]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
論文 参考訳(メタデータ) (2022-05-31T12:24:01Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。