論文の概要: NGDB-Zoo: Towards Efficient and Scalable Neural Graph Databases Training
- arxiv url: http://arxiv.org/abs/2602.21597v1
- Date: Wed, 25 Feb 2026 05:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.717212
- Title: NGDB-Zoo: Towards Efficient and Scalable Neural Graph Databases Training
- Title(参考訳): NGDB-Zoo: 効率的でスケーラブルなニューラルグラフデータベースのトレーニングを目指す
- Authors: Zhongwei Xie, Jiaxin Bai, Shujie Liu, Haoyu Huang, Yufei Li, Yisen Gao, Hong Ting Tsang, Yangqiu Song,
- Abstract要約: NGDB-Zooは,演算子レベルのトレーニングをセマンティック拡張と相乗化することでボトルネックを解消する統合フレームワークである。
NGDB-Zooは多種多様な論理パターンにまたがって高いGPU利用率を維持し, ハイブリッド型ニューロシンボリック推論における摩擦を著しく軽減することを示した。
- 参考スコア(独自算出の注目度): 55.35217340229661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Graph Databases (NGDBs) facilitate complex logical reasoning over incomplete knowledge structures, yet their training efficiency and expressivity are constrained by rigid query-level batching and structure-exclusive embeddings. We present NGDB-Zoo, a unified framework that resolves these bottlenecks by synergizing operator-level training with semantic augmentation. By decoupling logical operators from query topologies, NGDB-Zoo transforms the training loop into a dynamically scheduled data-flow execution, enabling multi-stream parallelism and achieving a $1.8\times$ - $6.8\times$ throughput compared to baselines. Furthermore, we formalize a decoupled architecture to integrate high-dimensional semantic priors from Pre-trained Text Encoders (PTEs) without triggering I/O stalls or memory overflows. Extensive evaluations on six benchmarks, including massive graphs like ogbl-wikikg2 and ATLAS-Wiki, demonstrate that NGDB-Zoo maintains high GPU utilization across diverse logical patterns and significantly mitigates representation friction in hybrid neuro-symbolic reasoning.
- Abstract(参考訳): ニューラルネットワークデータベース(NGDB)は、不完全な知識構造に対する複雑な論理的推論を促進するが、そのトレーニング効率と表現性は、厳密なクエリレベルのバッチリングと構造独占的な埋め込みによって制約される。
本稿では,これらのボトルネックを解決する統一フレームワークNGDB-Zooを提案する。
論理演算子をクエリトポロジから切り離すことで、NGDB-Zooはトレーニングループを動的にスケジュールされたデータフロー実行に変換し、マルチストリーム並列化を可能にし、ベースラインと比較して1.8\times$ - 6.8\times$スループットを達成する。
さらに、分離されたアーキテクチャを形式化し、I/Oストールやメモリオーバーフローを発生させることなく、事前訓練されたテキストエンコーダ(PTE)から高次元のセマンティックプリエントを統合する。
ogbl-wikikg2やATLAS-Wikiのような巨大なグラフを含む6つのベンチマークの大規模な評価は、NGDB-Zooが様々な論理パターンにわたって高いGPU使用率を維持し、ハイブリッドなニューロシンボリック推論における表現摩擦を著しく軽減していることを示している。
関連論文リスト
- GLOW: Graph-Language Co-Reasoning for Agentic Workflow Performance Prediction [51.83437071408662]
本稿では,AW性能予測のための統合フレームワークGLOWを提案する。
GLOWは、GNNのグラフ構造モデリング能力とLLMの推論能力を組み合わせる。
FLORA-Benchの実験では、GLOWは予測精度とランキングユーティリティにおいて最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-12-11T13:30:46Z) - Med-CRAFT: Automated Construction of Interpretable and Multi-Hop Video Workloads via Knowledge Graph Traversal [13.216513001286812]
textbfPipelineNameは、新しいニューロシンボリックデータエンジニアリングフレームワークである。
Med-CRAFTは生のビデオストリームから構造化されたビジュアルプリミティブを抽出し、動的時空間知識グラフにインスタンス化する。
このパイプラインをインスタンス化し、大規模な医療ビデオ推論ベンチマークであるM3-Med-Autoを生成します。
論文 参考訳(メタデータ) (2025-11-30T19:24:10Z) - You Don't Need Pre-built Graphs for RAG: Retrieval Augmented Generation with Adaptive Reasoning Structures [16.867592142212203]
大型言語モデル(LLM)はしばしば幻覚に悩まされ、知識を超えた質問を処理する際に、事実的に誤った文を生成する。
Retrieval-augmented Generation (RAG)は、LLM推論をサポートするために、知識ベースからクエリ関連コンテキストを取得することで、この問題に対処する。
既存のGraphベースのRAGメソッドは、コーパスをグラフに変換するためのコストの高いプロセスに依存しており、圧倒的なトークンコストとアップデートのレイテンシを導入している。
本稿では,推論時に推論構造を動的に抽出し,事前に構築したグラフを使わずに適応検索を誘導するLogicRAGを提案する。
論文 参考訳(メタデータ) (2025-08-08T08:07:40Z) - Rel-HNN: Split Parallel Hypergraph Neural Network for Learning on Relational Databases [3.6423651166048874]
データベースのフラット化は、ディープラーニングモデルに課題をもたらす。
我々はrel-HNNと呼ばれる新しいハイパーグラフベースのフレームワークを提案する。
rel-HNNは,分類タスクと回帰タスクの両方において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-16T18:20:45Z) - GNN-Coder: Boosting Semantic Code Retrieval with Combined GNNs and Transformer [15.991615273248804]
抽象構文木(AST)を利用するグラフニューラルネットワーク(GNN)に基づく新しいフレームワークであるGNN-Coderを紹介する。
GNN-Coderは、CSNデータセットのMRRが1%-10%改善され、CosQAデータセットのゼロショットパフォーマンスが20%向上するなど、検索パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2025-02-21T04:29:53Z) - RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
RelGNNはリレーショナルデータベースから構築されたグラフのユニークな構造特性を活用するために特別に設計された新しいGNNフレームワークである。
RelGNNは、Relbench(Fey et al., 2024)から30の多様な実世界のタスクで評価され、ほとんどのタスクで最先端のパフォーマンスを実現し、最大25%の改善を実現している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Top Ten Challenges Towards Agentic Neural Graph Databases [56.92578700681306]
Neo4jやTigerGraphのようなグラフデータベース(GDB)は相互接続されたデータを扱うのが得意だが、高度な推論機能が欠けている。
本稿では,NGDBを3つのコア機能で拡張するエージェント型ニューラルネットワークデータベース(Agentic NGDB)を提案する。
論文 参考訳(メタデータ) (2025-01-24T04:06:50Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。