論文の概要: KGCompiler: Deep Learning Compilation Optimization for Knowledge Graph Complex Logical Query Answering
- arxiv url: http://arxiv.org/abs/2503.02172v1
- Date: Tue, 04 Mar 2025 01:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:54.700515
- Title: KGCompiler: Deep Learning Compilation Optimization for Knowledge Graph Complex Logical Query Answering
- Title(参考訳): KGCompiler:知識グラフ複合論理クエリアンサーのためのディープラーニングコンパイル最適化
- Authors: Hongyu Lin, Haoran Luo, Hanghang Cao, Yang Liu, Shihao Gao, Kaichun Yao, Libo Zhang, Mingjie Xing, Yanjun Wu,
- Abstract要約: CLQAタスク用に特別に設計された最初のコンパイラであるKGCompilerを紹介する。
KGCompiler は CLQA アルゴリズムを 1.04x から 8.26x までの因子で高速化し,平均速度は 3.71x である。
- 参考スコア(独自算出の注目度): 30.39578108108025
- License:
- Abstract: Complex Logical Query Answering (CLQA) involves intricate multi-hop logical reasoning over large-scale and potentially incomplete Knowledge Graphs (KGs). Although existing CLQA algorithms achieve high accuracy in answering such queries, their reasoning time and memory usage scale significantly with the number of First-Order Logic (FOL) operators involved, creating serious challenges for practical deployment. In addition, current research primarily focuses on algorithm-level optimizations for CLQA tasks, often overlooking compiler-level optimizations, which can offer greater generality and scalability. To address these limitations, we introduce a Knowledge Graph Compiler, namely KGCompiler, the first deep learning compiler specifically designed for CLQA tasks. By incorporating KG-specific optimizations proposed in this paper, KGCompiler enhances the reasoning performance of CLQA algorithms without requiring additional manual modifications to their implementations. At the same time, it significantly reduces memory usage. Extensive experiments demonstrate that KGCompiler accelerates CLQA algorithms by factors ranging from 1.04x to 8.26x, with an average speedup of 3.71x. We also provide an interface to enable hands-on experience with KGCompiler.
- Abstract(参考訳): 複雑論理クエリアンサーリング(CLQA)は、大規模かつ潜在的に不完全な知識グラフ(KG)に対する複雑なマルチホップ論理推論を含む。
既存のCLQAアルゴリズムは、そのようなクエリに応答する際の高い精度を実現するが、その推論時間とメモリ使用量は、関連する一階述語論理演算子(FOL)の数に比例して大幅に拡大し、実用的なデプロイメントに重大な課題を生んでいる。
加えて、現在の研究は主にCLQAタスクのアルゴリズムレベルの最適化に焦点を当てており、しばしばコンパイラレベルの最適化を見越して、より汎用性とスケーラビリティを提供する。
これらの制限に対処するため、CLQAタスク用に特別に設計された最初のディープラーニングコンパイラであるKGCompilerという知識グラフコンパイラを導入しました。
本稿では,KG固有の最適化を取り入れることで,CLQAアルゴリズムの推論性能を向上させる。
同時に、メモリ使用量を大幅に削減します。
大規模な実験により、KGCompilerは平均速度3.71倍の1.04倍から8.26倍の係数でCLQAアルゴリズムを加速することを示した。
また、KGCompilerでハンズオン体験を可能にするインターフェースも提供しています。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Extreme Compression of Large Language Models via Additive Quantization [59.3122859349777]
我々のアルゴリズムは、AQLMと呼ばれ、情報検索のための古典的な加算量子化(AQ)アプローチを一般化する。
トークン生成のためのAQLMの高速GPUおよびCPU実装を提供しており、最適化されたFP16実装を高速にマッチングまたは性能良くすることができる。
論文 参考訳(メタデータ) (2024-01-11T18:54:44Z) - Query2Triple: Unified Query Encoding for Answering Diverse Complex
Queries over Knowledge Graphs [29.863085746761556]
単純で複雑なクエリのトレーニングを分離する新しいアプローチであるQuery to Triple (Q2T)を提案する。
提案するQ2Tは, トレーニングだけでなく, モジュール性にも優れ, 様々なニューラルネットワーク予測器に容易に適応できる。
論文 参考訳(メタデータ) (2023-10-17T13:13:30Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Answering Complex Logical Queries on Knowledge Graphs via Query
Computation Tree Optimization [24.53940704113805]
そこで我々は,QTO (Query Computation Tree Optimization) を提案する。
QTOは、木のようなグラフ計算、すなわちクエリ計算ツリーの前方への伝播によって最適な解を求める。
実験の結果,QTOは複雑な問合せ応答の最先端性能を向上し,平均22%の精度で過去の最良の結果を上回った。
論文 参考訳(メタデータ) (2022-12-19T15:59:00Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - SMORE: Knowledge Graph Completion and Multi-hop Reasoning in Massive
Knowledge Graphs [147.73127662757335]
我々は、知識グラフ(KG)におけるシングルホップおよびマルチホップ推論のための最初の汎用フレームワークであるスケーラブルなマルチホップ推論(SMORE)を提案する。
シングルマシンのSMOREはFreebase KG(86Mエンティティ、338Mエッジ)でマルチホップ推論を行うことができる。
SMOREは、従来のマルチホップKGフレームワークよりもスループット(トレーニング速度)を、最小のGPUメモリ要件で2.2倍向上させる。
論文 参考訳(メタデータ) (2021-10-28T05:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。