論文の概要: Neural Graph Databases
- arxiv url: http://arxiv.org/abs/2209.09732v1
- Date: Tue, 20 Sep 2022 14:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:48:04.141345
- Title: Neural Graph Databases
- Title(参考訳): ニューラルグラフデータベース
- Authors: Maciej Besta, Patrick Iff, Florian Scheidl, Kazuki Osawa, Nikoli
Dryden, Michal Podstawski, Tiancheng Chen, Torsten Hoefler
- Abstract要約: ほぼすべてのグラフニューラルネットワーク(GNN)モデルとグラフデータベース(GDB)の計算能力をシームレスに組み合わせる方法について述べる。
任意のLPGデータセットをGNNの幅広いクラスで直接使用可能な表現に変換するエンコーダであるLPG2vecを開発した。
本評価では,LPG2vecにより,LPGラベルとプロパティとして表される豊富な情報が適切に保存されていることを示す。
- 参考スコア(独自算出の注目度): 14.711031610812967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph databases (GDBs) enable processing and analysis of unstructured,
complex, rich, and usually vast graph datasets. Despite the large significance
of GDBs in both academia and industry, little effort has been made into
integrating them with the predictive power of graph neural networks (GNNs). In
this work, we show how to seamlessly combine nearly any GNN model with the
computational capabilities of GDBs. For this, we observe that the majority of
these systems are based on, or support, a graph data model called the Labeled
Property Graph (LPG), where vertices and edges can have arbitrarily complex
sets of labels and properties. We then develop LPG2vec, an encoder that
transforms an arbitrary LPG dataset into a representation that can be directly
used with a broad class of GNNs, including convolutional, attentional,
message-passing, and even higher-order or spectral models. In our evaluation,
we show that the rich information represented as LPG labels and properties is
properly preserved by LPG2vec, and it increases the accuracy of predictions
regardless of the targeted learning task or the used GNN model, by up to 34%
compared to graphs with no LPG labels/properties. In general, LPG2vec enables
combining predictive power of the most powerful GNNs with the full scope of
information encoded in the LPG model, paving the way for neural graph
databases, a class of systems where the vast complexity of maintained data will
benefit from modern and future graph machine learning methods.
- Abstract(参考訳): グラフデータベース(GDB)は、構造化されていない、複雑な、リッチで、通常は広大なグラフデータセットの処理と分析を可能にする。
学術と産業の両方においてGDBの重要性は大きいが、グラフニューラルネットワーク(GNN)の予測能力と統合するための努力はほとんど行われていない。
本稿では,ほぼすべてのGNNモデルをGDBの計算能力とシームレスに組み合わせる方法について述べる。
このため、これらのシステムの大部分はラベル付きプロパティグラフ(LPG)と呼ばれるグラフデータモデルに基づいており、頂点とエッジは任意の複雑なラベルとプロパティを持つことができる。
次に、任意のLPGデータセットを、畳み込み、注意、メッセージパッシング、さらに高階またはスペクトルモデルを含む幅広いGNNのクラスで直接使用できる表現に変換するエンコーダであるLPG2vecを開発する。
本評価では,LPGラベルやプロパティとして表されるリッチな情報をLPG2vecで適切に保存し,LPGラベルやプロパティを持たないグラフと比較して,目標とする学習タスクや使用済みGNNモデルに関わらず,予測精度を最大34%向上することを示した。
一般的に、LPG2vecは、最も強力なGNNの予測能力とLPGモデルに符号化された情報の完全なスコープを組み合わせ、保守されたデータの膨大な複雑さが、現代および将来のグラフ機械学習手法の恩恵を受けるようなシステムのクラスであるニューラルグラフデータベースへの道を開くことができる。
関連論文リスト
- GLISP: A Scalable GNN Learning System by Exploiting Inherent Structural
Properties of Graphs [5.410321469222541]
産業規模グラフのためのサンプリングベースGNN学習システムであるGLISPを提案する。
GLISPは、グラフパーティショナ、グラフサンプリングサービス、グラフ推論エンジンの3つのコアコンポーネントで構成されている。
実験の結果、GLISPはトレーニングと推論タスクのために既存のGNNシステムよりも最大6.53タイム、70.77タイムのスピードアップを達成した。
論文 参考訳(メタデータ) (2024-01-06T02:59:24Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - Examining the Effects of Degree Distribution and Homophily in Graph
Learning Models [19.060710813929354]
GraphWorldは,GNNタスクのベンチマークを行うための,多種多様な合成グラフを生成するソリューションだ。
その成功にもかかわらず、SBMはグラフワールドが生み出すことのできるグラフ構造に根本的な制限を課した。
本研究では,2つの合成グラフ生成器がGraphWorldの評価を改善する方法について検討する。
論文 参考訳(メタデータ) (2023-07-17T22:35:46Z) - IGB: Addressing The Gaps In Labeling, Features, Heterogeneity, and Size
of Public Graph Datasets for Deep Learning Research [14.191338008898963]
グラフニューラルネットワーク(GNN)は、さまざまな現実的、挑戦的なアプリケーションに対して高い可能性を示している。
GNN研究の大きな障害の1つは、大規模なフレキシブルデータセットの欠如である。
イリノイグラフベンチマーク(IGB)は、開発者がGNNモデルをトレーニング、精査、評価するために使用できる研究データセットツールである。
論文 参考訳(メタデータ) (2023-02-27T05:21:35Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。