論文の概要: GraphGen: A Scalable Approach to Domain-agnostic Labeled Graph
Generation
- arxiv url: http://arxiv.org/abs/2001.08184v2
- Date: Wed, 8 Apr 2020 13:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:04:06.956015
- Title: GraphGen: A Scalable Approach to Domain-agnostic Labeled Graph
Generation
- Title(参考訳): GraphGen: ドメインに依存しないラベル付きグラフ生成へのスケーラブルなアプローチ
- Authors: Nikhil Goyal, Harsh Vardhan Jain, Sayan Ranu
- Abstract要約: グラフ生成モデルは、データマイニングの文献で広く研究されている。
最近の技術は、データから直接この分布を学習する方向に移行している。
本研究では、これらの制限をすべて克服するために、GraphGenと呼ばれるドメインに依存しないテクニックを開発します。
- 参考スコア(独自算出の注目度): 5.560715621814096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph generative models have been extensively studied in the data mining
literature. While traditional techniques are based on generating structures
that adhere to a pre-decided distribution, recent techniques have shifted
towards learning this distribution directly from the data. While learning-based
approaches have imparted significant improvement in quality, some limitations
remain to be addressed. First, learning graph distributions introduces
additional computational overhead, which limits their scalability to large
graph databases. Second, many techniques only learn the structure and do not
address the need to also learn node and edge labels, which encode important
semantic information and influence the structure itself. Third, existing
techniques often incorporate domain-specific rules and lack generalizability.
Fourth, the experimentation of existing techniques is not comprehensive enough
due to either using weak evaluation metrics or focusing primarily on synthetic
or small datasets. In this work, we develop a domain-agnostic technique called
GraphGen to overcome all of these limitations. GraphGen converts graphs to
sequences using minimum DFS codes. Minimum DFS codes are canonical labels and
capture the graph structure precisely along with the label information. The
complex joint distributions between structure and semantic labels are learned
through a novel LSTM architecture. Extensive experiments on million-sized, real
graph datasets show GraphGen to be 4 times faster on average than
state-of-the-art techniques while being significantly better in quality across
a comprehensive set of 11 different metrics. Our code is released at
https://github.com/idea-iitd/graphgen.
- Abstract(参考訳): グラフ生成モデルはデータマイニング文献で広く研究されている。
従来の手法は事前決定された分布に従う構造の生成に基づいているが、近年ではこの分布をデータから直接学習する手法にシフトしている。
学習ベースのアプローチは品質を大幅に向上させたが、いくつかの制限には対処しなくてはならない。
まず、グラフ分布の学習には計算オーバーヘッドが加わり、スケーラビリティは大きなグラフデータベースに制限される。
第二に、多くのテクニックが構造のみを学習し、ノードやエッジラベルも学習する必要がなく、重要な意味情報をエンコードし、構造自体に影響を与える。
第三に、既存の技術はドメイン固有のルールを取り入れ、一般化性に欠けることが多い。
第四に、既存の技術の実験は、弱い評価メトリクスを使うか、主に合成または小さなデータセットに焦点を当てているため、十分に包括的ではない。
本研究では、これらの制限をすべて克服するために、GraphGenと呼ばれるドメインに依存しないテクニックを開発する。
GraphGenは最小のDFSコードを使用してグラフをシーケンスに変換する。
最小のDFS符号は標準ラベルであり、ラベル情報とともにグラフ構造を正確にキャプチャする。
構造と意味ラベルの間の複雑な結合分布は、新しいLSTMアーキテクチャによって学習される。
百万規模の実際のグラフデータセットに対する大規模な実験では、GraphGenは最先端のテクニックよりも平均4倍高速で、11のメトリクスの包括的なセットで品質が大幅に向上している。
私たちのコードはhttps://github.com/idea-iitd/graphgenでリリースしています。
関連論文リスト
- GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs [27.169892145194638]
GraphCLIPは、強力なクロスドメインゼロ/フェーショット転送可能性を持つグラフ基盤モデルを学習するためのフレームワークである。
LLMの助けを借りて、大規模グラフ-土木ペアデータを生成し、キュレートする。
数ショットの学習では,事前学習目標に沿った新しいグラフプロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T09:40:52Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited [51.24526202984846]
グラフベースの半教師付き学習(GSSL)は、長い間ホットな研究トピックだった。
グラフ畳み込みネットワーク (GCN) は, 有望な性能を示す主要な技術となっている。
論文 参考訳(メタデータ) (2023-09-24T10:10:21Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - GraphGen-Redux: a Fast and Lightweight Recurrent Model for labeled Graph
Generation [13.956691231452336]
ラベル付きグラフ生成のための新しいグラフ前処理手法を提案する。
新たなグラフ前処理手法を導入することで,ノードとエッジのラベル付け情報を共同で処理することができる。
GraphGen-Reduxと呼ばれる対応するモデルは、幅広いデータセットにおけるGraphGenの生成パフォーマンスを改善します。
論文 参考訳(メタデータ) (2021-07-18T09:26:10Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Adaptive-Step Graph Meta-Learner for Few-Shot Graph Classification [25.883839335786025]
本稿では,グラフデータへの高速適応にGNNをベースとしたグラフメタラーナを用いた新しいフレームワークを提案する。
我々のフレームワークは、ベースラインと比較して、いくつかのショットグラフ分類タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-03-18T14:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。