論文の概要: Models and Benchmarks for Representation Learning of Partially Observed
Subgraphs
- arxiv url: http://arxiv.org/abs/2209.00508v1
- Date: Thu, 1 Sep 2022 14:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:38:57.080690
- Title: Models and Benchmarks for Representation Learning of Partially Observed
Subgraphs
- Title(参考訳): 部分観測された部分グラフの表現学習モデルとベンチマーク
- Authors: Dongkwan Kim, Jiho Jin, Jaimeen Ahn, Alice Oh
- Abstract要約: グラフはグラフの豊富な部分構造であり、それらのノードとエッジは現実世界のタスクで部分的に観察できる。
既存のノードレベルまたはサブグラフレベルのメッセージパッシングは、準最適表現を生成する。
本稿では,部分部分グラフInfoMaxフレームワークを提案し,既存のInfoMaxモデルを一般化する。
- 参考スコア(独自算出の注目度): 13.10073267779116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subgraphs are rich substructures in graphs, and their nodes and edges can be
partially observed in real-world tasks. Under partial observation, existing
node- or subgraph-level message-passing produces suboptimal representations. In
this paper, we formulate a novel task of learning representations of partially
observed subgraphs. To solve this problem, we propose Partial Subgraph InfoMax
(PSI) framework and generalize existing InfoMax models, including DGI,
InfoGraph, MVGRL, and GraphCL, into our framework. These models maximize the
mutual information between the partial subgraph's summary and various
substructures from nodes to full subgraphs. In addition, we suggest a novel
two-stage model with $k$-hop PSI, which reconstructs the representation of the
full subgraph and improves its expressiveness from different local-global
structures. Under training and evaluation protocols designed for this problem,
we conduct experiments on three real-world datasets and demonstrate that PSI
models outperform baselines.
- Abstract(参考訳): グラフはグラフの豊富な部分構造であり、それらのノードとエッジは現実世界のタスクで部分的に観察できる。
部分的観察の下で、既存のノードまたはサブグラフレベルのメッセージパッシングは、サブ最適表現を生成する。
本稿では,部分観測された部分グラフの学習表現の新たなタスクを定式化する。
そこで本研究では,DGI,InfoGraph,MVGRL,GraphCLなどの既存のInfoMaxモデルをフレームワークに一般化し,部分部分グラフInfoMax(PSI)フレームワークを提案する。
これらのモデルは部分部分グラフの要約とノードから全部分グラフまでの様々な部分構造の間の相互情報を最大化する。
さらに,全部分グラフの表現を再構成し,異なる局所的グローバル構造からの表現性を向上させる,k$-hop psiの新たな2段階モデルを提案する。
この問題のために設計されたトレーニングおよび評価プロトコルでは、3つの実世界のデータセットについて実験を行い、psiモデルがベースラインを上回ることを実証する。
関連論文リスト
- Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Leveraging Graph Diffusion Models for Network Refinement Tasks [72.54590628084178]
本稿では,グラフ拡散に基づく新しいグラフ生成フレームワークSGDMを提案する。
我々のフレームワークはグラフ拡散モデルのスケーラビリティと忠実度を向上するだけでなく、逆プロセスを利用して新しい条件付き生成タスクを実行する。
論文 参考訳(メタデータ) (2023-11-29T18:02:29Z) - Sub-Graph Learning for Spatiotemporal Forecasting via Knowledge
Distillation [22.434970343698676]
サブグラフを効果的に学習するためのフレームワークKD-SGLを提案する。
グラフの全体構造と各サブグラフの複数の局所モデルを学ぶために,グローバルモデルを定義する。
論文 参考訳(メタデータ) (2022-11-17T18:02:55Z) - Translating Subgraphs to Nodes Makes Simple GNNs Strong and Efficient for Subgraph Representation Learning [22.066255851756118]
Subgraph-To-Node (S2N) 翻訳は、サブグラフの表現を学習するための新しい定式化である。
S2N翻訳を用いた微調整モデルでは、最先端モデルよりも183-711倍のサブグラフサンプルを処理可能であることを実証した。
論文 参考訳(メタデータ) (2022-04-09T16:38:25Z) - GraphDCA -- a Framework for Node Distribution Comparison in Real and
Synthetic Graphs [72.51835626235368]
2つのグラフを比較するとき、ノード構造的特徴の分布は、グローバルグラフ統計よりも有益である、と我々は主張する。
本稿では,各ノード表現セットのアライメントに基づいてグラフ間の類似性を評価するフレームワークGraphDCAを提案する。
論文 参考訳(メタデータ) (2022-02-08T14:19:19Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Structure-Aware Hierarchical Graph Pooling using Information Bottleneck [2.7088996845250897]
グラフプーリングは、グラフ分類および回帰タスクにおけるグラフニューラルネットワーク(GNN)の重要な要素です。
本稿では,情報ボトルネック(IB)の原理を応用した,HIBPoolという新しいプール手法を提案する。
また,グラフの局所部分グラフ構造をキャプチャするために,新しい構造認識型識別プーリング読み出し(dip-readout)関数を導入する。
論文 参考訳(メタデータ) (2021-04-27T07:27:43Z) - SUGAR: Subgraph Neural Network with Reinforcement Pooling and
Self-Supervised Mutual Information Mechanism [33.135006052347194]
本稿では,グラフ分類のための階層型サブグラフレベル選択および埋め込み型グラフニューラルネットワーク,すなわちシュガーを提案する。
SUGARは、原グラフの代表的な部分として印象的なサブグラフを抽出し、サブグラフレベルのパターンを明らかにすることにより、スケッチグラフを再構築する。
グラフ間の部分グラフ表現を区別するために,自己教師付き相互情報機構を提案する。
論文 参考訳(メタデータ) (2021-01-20T15:06:16Z) - Bipartite Graph Embedding via Mutual Information Maximization [8.382665371140503]
バイパートグラフの埋め込みは、様々なアプリケーションドメインで広く使われているため、多くの注目を集めている。
我々は,新しい局所的グローバルインフォマックス目標を導入することにより,このようなグローバル特性を捉えるためにbigiと呼ばれる2部グラフ埋め込みを提案する。
提案モデルは,top-kレコメンデーションとリンク予測のための様々なベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2020-12-10T04:03:39Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。